
*Edição nº 460 da Revista da Previdência Complementar – uma publicação da Abrapp, ICSS, Sindapp, UniAbrapp e Conecta
Por Débora Diniz
O uso da inteligência artificial na Previdência Complementar – A inteligência artificial (IA) deixou de ser promessa distante para se tornar realidade presente em quase todos os setores econômicos. Da comunicação com clientes às análises de investimentos, passando por processos de governança e due diligence, os algoritmos avançam em ritmo vertiginoso, transformando estruturas tradicionais e impondo novos desafios. No caso da Previdência Complementar fechada, esse movimento ganha contornos ainda mais complexos: trata-se de um sistema que administra poupança de longo prazo e cuja essência é a confiança. É nesse ponto sensível que inovação e prudência precisam se encontrar, e é justamente nesse cruzamento que se insere o debate sobre o Projeto de Lei nº 2.338/2023, o chamado PL da Inteligência Artificial, aprovado no Senado em dezembro e agora em análise na Câmara dos Deputados.
Especialistas do segmento acompanham de perto as discussões. A Abrapp tem se posicionado de forma ativa no Fórum Empresarial da LGPD (Lei Geral de Proteção de Dados) e em outras arenas estratégicas, buscando calibrar os termos da regulação de modo a equilibrar proteção, inovação e sustentabilidade. Entre as vozes mais engajadas nesse debate estão Antônio Carlos Bastos d’Almeida, Gerente de Riscos e DPO da Forluz, e Glauco Milhomem Balthar, especialista em transformação digital. Ambos ressaltam os impactos diretos da IA sobre as entidades fechadas, mas partem de ângulos diferentes e complementares: de um lado, os riscos éticos, jurídicos e operacionais; de outro, o potencial de eficiência, integração e novos modelos de relacionamento com participantes.
Construção do marco – A motivação central do PL 2.338 é clara: proteger a sociedade dos efeitos colaterais da tecnologia sem sufocar a inovação. Entre as previsões do texto estão a obrigatoriedade de supervisão humana em sistemas de alto risco, a criação de direitos do usuário – como o direito de revisão e contestação de decisões algorítmicas – e a definição de responsabilidades civis em caso de danos. O §1º do artigo 50, por exemplo, estabelece que sanções devem considerar fatores como mecanismos internos de mitigação de riscos, relatórios de impacto algorítmico e códigos de boas práticas. Já os artigos 35 e 36 confirmam que eventuais danos decorrentes da IA continuam sujeitos ao Código Civil e ao Código de Defesa do Consumidor.
O arcabouço normativo também prevê uma divisão de responsabilidades. Cada agência setorial ficará encarregada de supervisionar o uso da IA em sua área de atuação: o Banco Central no setor financeiro, a Susep no mercado de seguros e a Previc na Previdência Complementar, por exemplo. A coordenação caberá à Autoridade Nacional de Proteção de Dados (ANPD), que manterá a visão geral e atuará nos setores não regulados.
Membro da Comissão Técnica Regional Leste de Governança da Abrapp, Antônio Carlos Bastos d’Almeida considera a abordagem acertada: “Aplicar normas sem conhecer a especificidade do setor compromete a eficácia da regulação. É fundamental que cada órgão regulador traga sua experiência para a mesa”. A visão ecoa uma preocupação recorrente: a de que a ANPD, sozinha, teria um olhar excessivamente centrado em dados pessoais, deixando em segundo plano nuances jurídicas e operacionais de áreas como a Previdência Complementar.
Desde suas primeiras manifestações, Almeida faz questão de sublinhar o caráter disruptivo da tecnologia. A velocidade de evolução é tamanha que diagnósticos se tornam rapidamente perecíveis. “O que discutimos hoje pode não ter validade daqui a um ano”, observa. Essa imprevisibilidade é, para ele, tanto fonte de oportunidades quanto de riscos, exigindo atenção redobrada de gestores e reguladores.
Em artigo publicado no ano passado, o especialista já havia advertido para a complexidade de identificar e monitorar riscos inerentes à IA. Listava, então, ameaças que vão desde impactos sobre direitos fundamentais até problemas de responsabilização e governança interna. O texto propunha que as EFPCs realizassem sondagens internas para identificar usos concretos de IA – de chatbots e sistemas conversacionais a ferramentas de machine learning – e a partir daí mapeassem riscos operacionais, jurídicos e de imagem.
Entre os pontos centrais, destacava-se a necessidade de supervisão humana. “O que pode ser coletado, armazenado e processado deve estar supervisionado”, alertava Almeida em seu artigo, lembrando que negligência nesse aspecto pode resultar em sérios danos aos titulares de dados e às próprias entidades. A questão, agora incorporada ao PL 2.338, não é apenas técnica: é também reputacional. No setor de previdência, onde a confiança é a base de qualquer operação, um erro algorítmico não supervisionado pode ter consequências irreparáveis.
(Continua…)
Clique aqui para ler a matéria completa na íntegra.
Fonte: Abrapp em Foco, em 20.10.2025.