Lei de IA da União Europeia: Um momento decisivo para a regulamentação da IA

A Lei de IA da UE foi publicada oficialmente pela Comissão Europeia em julho de 2024, após meses de desenvolvimento. É a primeira legislação destinada a regulamentar o desenvolvimento e o uso da IA em todos os setores, com o objetivo de proteger os direitos fundamentais dos cidadãos, escreve Vlad Flamind, consultor líder de dados da Zühlke

A lei está programada para entrar em vigor em fevereiro de 2025. Ela começará proibindo determinadas práticas, seguida pela introdução de requisitos específicos para casos de uso autorizados. A não conformidade com a lei pode levar a pesadas penalidades financeiras, incluindo multas de até 7% do faturamento global.

Qual é o impacto nos casos de uso de seguros?

A Lei de IA tem implicações significativas para o setor de seguros, com casos de uso classificados com base em seu nível de risco. As restrições e os requisitos são aplicados às seguradoras de acordo com a classificação de risco atribuída:

  • Risco mínimo: Isso inclui casos de uso em que a IA tem uma função limitada na tomada de decisões, como classificação de documentos ou mecanismos de pesquisa. Eles não têm requisitos específicos.
  • Risco limitado: inclui chatbots de clientes ou IAs de detecção de fraudes. Para esses casos, as seguradoras precisam garantir que as interações sejam documentadas e que as decisões possam ser explicadas aos usuários e aos órgãos reguladores. Os usuários também precisam ser informados de que a IA está sendo usada.
  • Alto risco: Isso inclui muitos dos principais casos de uso de seguros, como subscrição e precificação de vida e saúde, processamento de sinistros, treinamento e recrutamento. Para estar em conformidade, as seguradoras devem primeiro adaptar seus processos de gerenciamento de risco e qualidade. Elas precisam garantir a supervisão humana para resolver qualquer problema de funcionamento e documentar o desenvolvimento e as operações de IA para comprovar a conformidade às autoridades. Paralelamente, elas devem implementar medidas científicas e tecnológicas específicas para garantir a robustez, a segurança e a compreensibilidade da IA.
  • Risco inaceitável: Isso inclui determinadas formas de pontuação social e o uso de dados biométricos confidenciais. Esses casos de uso são totalmente proibidos.

Além dessa classificação simples, os executivos de seguros também devem compreender as nuances da Lei de IA.

  • Casos de uso complexos. A Lei de IA da UE define limites com base em mercados (vida e saúde vs. propriedade), funções (fraude vs. subscrição) ou dados (biométricos vs. financeiros). Quando os casos de uso abrangem esses critérios, aplica-se a classificação de risco mais alta. Por exemplo, o uso do reconhecimento de voz para combater fraudes seria considerado de alto risco, pois os dados biométricos (voz) se enquadram nessa categoria.
  • Modelos de linguagem grandes. Esses se enquadram na categoria de sistemas de IA de uso geral com requisitos específicos. No entanto, a maioria das seguradoras dependerá de modelos existentes de terceiros (por exemplo, chatGPT da OpenAI), com a responsabilidade pela conformidade recaindo exclusivamente sobre os desenvolvedores do modelo. Isso afetará apenas os processos de aquisição de IA e de due diligence de parceiros das seguradoras.
  • Ligação com outras regulamentações. Os requisitos da Lei de IA da UE se somam às regulamentações existentes, como Solvência II, DORA, CPC, IAF ou GDPR. No entanto, muitas vezes haverá sobreposições, o que significa que alguns requisitos podem já estar sendo cumpridos de acordo com essas estruturas existentes.
  • Seguradoras não europeias. A Lei de IA da UE tem alcance extraterritorial, o que significa que qualquer IA vendida na Europa ou que afete cidadãos da UE estará sujeita às suas regulamentações, independentemente do país de origem da seguradora.

Chaves para o sucesso

Com a entrada em vigor da lei, as seguradoras precisarão implementar análises sistemáticas de seu portfólio de IA, incluindo casos de uso atuais e futuros. Essas análises devem destacar possíveis lacunas de conformidade e levar à implementação de medidas corretivas, se necessário. Para ter sucesso nessa empreitada, os executivos de seguros podem seguir os seguintes conselhos:

  • Crie uma equipe multidisciplinar de governança de IA, abrangendo especialistas em negócios, conformidade, dados, IA e TI. Não deixe de incluir especialistas jurídicos na equipe, pois ainda existem áreas cinzentas na legislação em determinadas seções da Lei de IA. Por exemplo, a subscrição assistida por IA é permitida, a menos que os dados comportamentais ou socioeconômicos sejam usados de forma “injustificada ou desproporcional”, o que deixa um espaço considerável para a interpretação jurídica.
  • Capacite suas equipes de ciência de dados e engenharia. A criação de sistemas de IA compatíveis exige o domínio de um conjunto emergente de ferramentas e técnicas. Os cientistas de dados agora podem revelar o funcionamento de modelos que antes eram considerados caixa preta. Da mesma forma, na segurança cibernética, novas ameaças, como ataques de inversão ou evasão, exigem novas medidas para proteger dados confidenciais e garantir a confiabilidade do modelo.
  • Use padrões como guias de conformidade. A Comissão Europeia deve publicar uma lista de padrões que fornecerão diretrizes claras para os requisitos de conformidade. Presume-se que as empresas que aderirem a esses padrões estarão em conformidade com a Lei de IA da UE. A ISO 42001 é considerada a candidata mais provável para cobrir os requisitos de governança de IA relacionados ao gerenciamento de riscos e qualidade.

Valor além da conformidade

A Lei de IA da UE introduz um conjunto de requisitos e restrições para as seguradoras, mas não deve ser vista apenas como um exercício de conformidade. Na verdade, os padrões propostos pela lei podem ajudar as seguradoras a garantir o ROI, às vezes esquivo.

Por um lado, elas promovem a confiança e a adoção do mercado por meio da transparência; por outro, fornecem diretrizes para aumentar a confiabilidade e o desempenho com a tecnologia de IA. Em resumo, a Lei de IA pode servir de modelo para o uso da IA de forma responsável e lucrativa no setor de seguros.

Sobre o autor

Vlad Flamind é consultor líder de dados da Zühlke, uma empresa global de consultoria em tecnologia especializada em ajudar as empresas a inovar e se transformar. Ele ajuda as organizações a criar uma estratégia de dados/IA vencedora, desenvolver IAs responsáveis e implementar gerenciamento e governança de dados eficazes.

ARTIGOS SIMILARES

Advertisment

redes sociais

POPULARES