17/06/2025 21:35 - Comunicação
Radioagência
Especialistas defendem amplo acesso a dados para treinar modelos de IA e evitar erros
ESPECIALISTAS DEFENDEM NA CÂMARA AMPLO ACESSO A DADOS PARA TREINAR MODELOS DE IA E EVITAR ERROS. O REPÓRTER MURILO RAMOS INFORMA.
Especialistas em inteligência artificial (IA) chamaram a atenção de deputados para pontos críticos do processo de regulação dessa tecnologia no País, como imprecisões em conceitos e possíveis restrições no acesso a dados para o treinamento de modelos de IA.
Luis Fernando Prado, líder do Comitê da IA Responsável e membro do Conselho Consultivo da Associação Brasileira de Inteligência Artificial (ABRIA) avalia que todos os problemas são agravados quando existe uma limitação no treinamento dos modelos de inteligência artificial.
Prado, que participou do debate na comissão especial da Câmara dos Deputados que analisa regras para o uso de IA no Brasil, previstas em um projeto já aprovado pelo Senado (PL 2338/23) apontou como obstáculos, por exemplo, os artigos da proposta que tratam especificamente de direitos autorais. Para ele, os artigos inviabilizam o treinamento de modelos de inteligência artificial no País.
“A percepção que a gente vai ter se o sistema é ético, é seguro, se não é discriminatório, se respeita a Constituição, depende de quão bem treinado esse sistema foi. E, para isso, basicamente a gente vai precisar de uma diversidade de dados representativos.”
Rodrigo Ferreira, assessor da Diretoria de Governança, Orçamento e Finanças da Casa da Moeda do Brasil, reforçou a importância do treinamento dos modelos e argumentou que o Brasil deve focar nos riscos, e não apenas na tecnologia.
Para Ferreira, a prevenção da discriminação algorítmica é um ponto chave da regulamentação, o que exige dados de treinamento que permitam reduzir preconceitos. Ele ressaltou que a legislação atual de proteção de dados, especialmente para dados sensíveis, traz limitações a esse uso.
O deputado Orlando Silva (PCdoB-SP) também demonstrou preocupação com o racismo algorítmico, “um tema supersensível”.
“De verdade, a Lei Geral de Proteção de Dados Pessoais (LGPD) restringe o interesse legítimo se aplicado em dados sensíveis”. “Mas se nós não temos o critério raça sendo aplicado ao treinamento de máquina, sim, nós podemos ter base para a operação, digamos assim, racista do algoritmo”.
Como exemplo, a deputada Fernanda Melchionna (Psol-RS) citou um caso de racismo algorítmico ao descrever um caso em que, ao usar uma ferramenta de IA inspirada na Disney Pixar, uma usuária inseriu a descrição "mulher negra na favela" e a IA gerou a imagem de "uma mulher armada”.
Representando empresas do setor, o diretor-executivo da Dharma.AI, Gabriel Renault, e o diretor de políticas da OpenAI para o Caribe e a América Latina, Nicolas Andrade defenderam um ambiente regulado favorável como meio de atrair investimentos para o Brasil.
Para Renault, o País não deve focar apenas em grandes modelos de IA generativa ou em modelos internacionais, mas deve aproveitar a oportunidade para estimular modelos de IA especializados em português e em setores específicos, como o industrial.
Relator da comissão especial da Câmara dos Deputados que analisa a regulação do uso de inteligência artificial no Brasil, o deputado Aguinaldo Ribeiro (PP-PB) adiantou que busca um texto que equilibre inovação e proteção dos direitos dos cidadãos.
Da Rádio Câmara, de Brasília, Murilo Souza.








