Divisão na regulação da IA representa riscos crescentes para seguradoras, dizem líderes do setor

A decisão coletiva do Reino Unido e dos EUA de não assinar uma declaração global de IA ressalta uma divisão crescente sobre a regulamentação internacional e levanta preocupações sobre os riscos emergentes da IA não regulamentada, afirmam os líderes empresariais do setor de seguros.

À medida que a inovação da IA se acelera, a falta de salvaguardas globais coordenadas está aumentando a incerteza para as empresas e o setor de seguros.

Com a expansão da adoção da IA em todos os setores, a ausência de estruturas regulatórias claras apresenta desafios significativos de responsabilidade, conformidade e segurança cibernética. O setor de seguros, que desempenha um papel fundamental na mitigação de riscos, enfrenta uma pressão cada vez maior para avaliar as exposições relacionadas à IA, incluindo viés algorítmico, violações de segurança de dados e falhas operacionais.

O que é a Declaração Global de IA?

A Declaração Global de IA é um acordo internacional que visa promover o desenvolvimento ético, inclusivo e sustentável da inteligência artificial. Apresentada na AI Action Summit em Paris, em 11 de fevereiro de 2025, a declaração foi endossada por mais de 60 países, incluindo Índia e China. Ela enfatiza a importância de garantir que as tecnologias de IA sejam desenvolvidas e implantadas de forma aberta, ética, segura e sustentável.

Tanto os Estados Unidos quanto o Reino Unido se recusaram a assinar a declaração, citando preocupações com a segurança nacional e uma percepção de falta de clareza em relação à governança global de IA. O vice-presidente dos EUA, JD Vance, também criticou a abordagem regulatória da Europa em relação à tecnologia e expressou apreensão quanto à colaboração com a China nesse domínio.

A recusa dos EUA e do Reino Unido em endossar a declaração atraiu críticas de vários setores, incluindo grupos de campanha e organizações de pesquisa de IA. Os críticos argumentam que essa medida poderia minar a credibilidade dessas nações como líderes em inovação ética de IA.

No entanto, muitos acreditam que a Declaração Global de IA representa um passo significativo no sentido de estabelecer normas e padrões internacionais para o desenvolvimento da IA. As diferentes posições dos principais participantes globais destacam os desafios contínuos para alcançar uma abordagem unificada para a governança da IA.

A Declaração tem o objetivo de promover:

Desenvolvimento ético: Compromisso com o desenvolvimento de sistemas de IA que sigam padrões éticos, garantindo o respeito aos direitos humanos e aos valores sociais.

Transparência: Defesa da abertura dos algoritmos de IA e dos processos de tomada de decisão para promover a confiança e a responsabilidade.

Inclusão: Garantia de que os benefícios da IA sejam distribuídos de forma equitativa entre os diferentes setores da sociedade, evitando preconceitos e discriminação.

Sustentabilidade: Promover o uso da IA de forma a apoiar as metas de desenvolvimento sustentável e a gestão ambiental.

Colaboração internacional: Incentivar a cooperação entre as nações para estabelecer estruturas e padrões comuns para a governança da IA.

Mark Kirby, diretor de Serviços Profissionais da Intersys, alerta que o atual impasse regulatório pode exacerbar a volatilidade dos riscos, tornando mais difícil para as seguradoras desenvolverem políticas abrangentes relacionadas à IA. Sem um consenso global, as empresas podem ter dificuldades com regulamentações inconsistentes entre jurisdições, complicando ainda mais as estratégias de gerenciamento de riscos.

À medida que o debate sobre a governança da IA continua, os líderes do setor e os formuladores de políticas devem navegar no equilíbrio entre inovação e mitigação de riscos, garantindo que as empresas e as seguradoras estejam equipadas para se adaptar a um cenário regulatório em evolução.

Kirby disse que “a recusa do Reino Unido e dos EUA em assinar a declaração global de IA é um sinal claro de que os interesses nacionais e financeiros estão sendo priorizados em relação à segurança coletiva. Embora a inovação em IA continue em um ritmo surpreendente, a ausência de salvaguardas internacionais robustas representa sérios riscos — não apenas para as empresas, mas para o setor de seguros que as sustenta.”

Kirby explicou que a capacidade da IA de processar e gerar grandes quantidades de dados cria novos pontos de exposição e observou que o viés nos modelos de treinamento pode levar a uma tomada de decisão injusta ou imprecisa, apresentando desafios nas avaliações de subscrição e sinistros. Ele também disse que o aumento de fraudes impulsionadas por IA — como golpes habilitados para deepfake e ataques de phishing hiperpersonalizados — exige atenção urgente das seguradoras que avaliam o risco cibernético.

E os riscos não param por aí. Além disso, há a ameaça do “envenenamento de dados” da IA, em que agentes mal-intencionados manipulam conjuntos de dados para distorcer os resultados da IA. Sem uma supervisão adequada, corremos o risco de um ambiente em que os sinistros fraudulentos se tornam mais difíceis de detectar, a verificação de identidade é prejudicada e as empresas enfrentam um cenário de ameaças cibernéticas em evolução”, disse Kirby.

Ele continuou: “O setor de seguros deve se preparar para esses desafios agora. A falha em estabelecer padrões internacionais de IA só aumenta a exposição, tornando imperativo que as seguradoras integrem o gerenciamento de riscos de IA nas apólices, na detecção de fraudes e na cobertura de responsabilidade cibernética. Com a IA continuando a moldar o mundo dos negócios, as seguradoras não podem se dar ao luxo de esperar que os governos se atualizem.”

Risto Rossar, fundador e CEO da Insly, que lançou recentemente o FormFlow, uma ferramenta de seguro baseada em IA, também expressou preocupação e dúvidas em relação ao Código de Prática.

Ele disse: “A maior parte do novo Código de Práticas de IA não é problemática para as empresas de seguros e insurtech, que já têm fortes padrões de segurança. No entanto, o maior sinal de alerta do ponto de vista da inovação é a necessidade de ‘supervisão humana’ dos sistemas de IA.”

Rossar ressaltou que, embora isso possa não afetar as seguradoras no curto prazo, uma vez que a IA está sendo usada atualmente para aprimorar as atividades humanas, há uma chance significativa de que isso prejudique o progresso e o crescimento no longo prazo, à medida que a tecnologia se torna mais poderosa.

Ele continuou: “Estou convencido de que a criação de uma seguradora totalmente baseada em IA será possível, mas isso não acontecerá se a supervisão humana for sempre necessária. Afinal de contas, um carro autônomo não é autônomo se ainda for necessária uma pessoa nos controles.”

Rossar acrescentou: “As seguradoras já operam dentro de estruturas rígidas de conformidade financeira e de segurança, portanto, questiono a necessidade de mais regras em um estágio tão inicial do desenvolvimento da IA. Tudo o que isso faz é limitar o escopo da inovação do Reino Unido e estabelecer o caminho para que os futuros líderes de seguros sejam construídos em outros lugares.”

ARTIGOS SIMILARES

Advertisment

redes sociais

POPULARES