Nova York torna as seguradoras responsáveis por sistemas de IA de terceiros

A nova orientação regulatória do estado de Nova York para seguradoras que usam IA afirma que as operadoras de seguros devem ser responsáveis por usar a tecnologia para subscrição e precificação.

“Se você estiver usando sistemas de terceiros, não poderá transferir a responsabilidade para eles”, disse Karthik Ramakrishnan, cofundador e CEO da Armilla, uma empresa de tecnologia de verificação e modelo de IA que atende aos setores de seguros, serviços financeiros, saúde, varejo e outros. “A seguradora ainda é responsável pelos resultados finais e é isso que a circular realmente tenta enfatizar.”

A orientação de Nova York veio do Departamento de Serviços Financeiros, que regulamenta os seguros, na forma de uma circular relacionada ao Artigo 26 da Lei de Seguros. Essa é uma lei estadual que trata de práticas injustas de liquidação de sinistros, discriminação e outras condutas impróprias, incluindo declarações falsas. A circular especifica que os elementos abordados pela lei não devem ser violados pelo uso indevido de IA e de dados e sistemas de informação do consumidor.

O que as seguradoras podem fazer para garantir que estejam em conformidade com a circular?

Ramakrishnan recomenda que as seguradoras definam uma política de governança para a forma como coletam dados, desenvolvem modelos e treinam modelos. Em segundo lugar, as seguradoras devem examinar como funciona sua produção operacional e suas intenções quanto ao uso de modelos. “Onde estão as áreas em que podemos usar IA e onde não podemos?”, disse ele.

Isso, por sua vez, requer a compreensão dos limites que a seguradora estabelecerá e como ela treinará seus cientistas de dados e os responsabilizará, de acordo com Ramakrishnan. Por fim, as seguradoras devem monitorar os processos definidos para a governança, acrescentou.

Há aspectos do uso de IA em que as seguradoras devem ir além do que é mencionado na orientação regulatória de Nova York, de acordo com Ramakrishnan. Os modelos de IA devem ser testados quanto à parcialidade e à forma como a alteração das variáveis nos modelos afeta os resultados, disse ele.

As seguradoras também devem analisar o desempenho dos modelos de IA. “Podemos explicar bem o modelo, entendemos como ele toma essas decisões?” perguntou Ramakrishnan. “Quais recursos são importantes para orientar as decisões e a robustez? O modelo se sai bem em dados não vistos?”

De acordo com Ramakrishnan, dependendo de seus níveis de precisão, os modelos de IA também podem ser treinados para aceitar dados e situações que nunca viram antes. O objetivo é evitar o “desvio de dados” e o “desvio de conceito”, explicou ele. “Esse é um conceito muito específico do aprendizado de máquina, em que, se ele vê muitos dados que estão fora de seu domínio, pode começar a tomar decisões e resultados cada vez mais errôneos”, disse ele. “Você deve saber como seu modelo está se comportando na produção.”

Nova York não é o primeiro estado dos EUA a considerar a regulamentação do uso de IA em seguros, mas é um dos primeiros a emitir políticas ou regras sobre o assunto. No ano passado, o órgão regulador de seguros do Colorado começou a emitir orientações de acordo com uma lei estadual aprovada em 2021. Em dezembro, a Associação Nacional de Comissários de Seguros, o grupo de reguladores de seguros estaduais, emitiu uma política de supervisão de IA para orientar seus reguladores membros.

ARTIGOS SIMILARES

Sair da versão mobile