“Algoritmo racista”: especialistas alertam sobre riscos da desregulação e defendem acesso amplo a dados para treinar IA no Brasil

Regulação em debate na Câmara aponta desafios entre inovação, ética e proteção de direitos. Empresários, parlamentares e especialistas apresentam diferentes pontos de vista em relação ao tema

Na última terça-feira (17), especialistas, parlamentares e representantes de organizações da sociedade civil e do setor privado participaram de uma audiência pública promovida pela Comissão Especial da Câmara dos Deputados para debater o PL da Inteligência Artificial (Projeto de Lei n° 2338/2023)

A proposta, que trata da regulação da Inteligência Artificial (IA) no Brasil, teve como principal ponto de atenção durante a discussão a possível limitação no uso de dados para treinar os sistemas de IA. Especialistas alertaram que as regras sobre direitos autorais, da forma como estão no texto, podem elevar o risco de desenvolver IAs sem treinamento adequado: guiadas por vieses problemáticos e dependentes de fontes estrangeiras.

Entenda o caso

A proposta, já aprovada no Senado e em tramitação na Câmara, busca estabelecer regras para o uso seguro, ético e responsável de sistemas de IA, com base em abordagens de risco e proteção de direitos fundamentais. No entanto, especialistas alertaram para trechos que podem inviabilizar o acesso a dados essenciais para o desenvolvimento de modelos mais representativos e justos, especialmente em um país com alta diversidade populacional e desigualdades estruturais.

Vale lembrar que até mesmo a revista de negócios e economia Forbes alertou sobre os perigos de um cenário de IA desregulada no Brasil, que segundo ela, em dois anos de vigência no país, “tem enfrentado diversas polêmicas e erros”:

“O ChatGPT foi acusado de reproduzir preconceitos e discriminações presentes nos dados de treinamento. Isso inclui respostas que podem ser consideradas sexistas, racistas ou de outra forma ofensivas, levantando preocupações sobre a imparcialidade da IA”, apresentou a matéria da Forbes, que você pode conferir completa aqui.

Isso aconteceria porque, seguindo as regras sobre direitos autorais, da maneira que foram propostas, as próprias exigências legais podem estar sufocando o avanço tecnológico sustentável que a regulação pretende organizar. Ao restringirem de forma genérica o uso de dados no treinamento de modelos de inteligência artificial, os dispositivos estariam passando por cima de uma premissa fundamental: sistemas justos, éticos e eficazes só podem ser construídos com acesso amplo, diverso e representativo à informação.

“Todos os problemas são agravados se tiver uma limitação no treinamento dos modelos de inteligência artificial”, afirmou Luis Fernando Prado, líder do Comitê da IA Responsável e membro do Conselho Consultivo da Associação Brasileira de Inteligência Artificial (Abria). Ele ainda pontuou que as propostas dos artigos 62 a 66, que tratam de direitos autorais, podem vir a dificultar o treinamento adequado das IAs no Brasil:

“A percepção que a gente vai ter se o sistema é ético, é seguro, se não é discriminatório, se respeita a Constituição, depende de quão bem treinado esse sistema foi. E, para isso, basicamente a gente vai precisar de uma diversidade de dados representativos”, argumentou Prado.

Governo defende texto aprovado no Senado

Em contrapartida, representando a SECOM-PR (Secretaria de Comunicação Social da Presidência da República), Marina Pita, avaliou que o texto já aprovado no Senado é adequado à realidade brasileira:

“O texto foi bastante aprimorado. É flexível, projetado para a realidade brasileira, reconhece direitos, protege a partir da simetria orientada por grau de risco e incentiva a inovação,” alegou a Diretora de Promoção de Liberdade de Expressão da Secretaria de Políticas Digitais.

A ONG Artigo 19, por meio de sua representante Paula Guedes, compartilhou avaliação semelhante, destacando que a proposta “é equilibrada e apresenta abordagem baseada em riscos e direitos”, ajustando obrigações dos desenvolvedores conforme o nível de risco do sistema.

Racismo algorítmico da IA e proteção de dados

O tema do racismo algorítmico também ganhou destaque no debate. O deputado Orlando Silva (PCdoB-SP) expressou preocupação com a ausência de critérios raciais nos dados de treinamento, o que pode perpetuar práticas discriminatórias:

“De verdade, a Lei Geral de Proteção de Dados Pessoais (LGPD) restringe o interesse legítimo se aplicado em dados sensíveis. Mas se nós não temos o critério ‘raça’ sendo aplicado ao treinamento de máquina, sim, nós podemos ter base para a operação, digamos assim, racista do algoritmo”, classificou o parlamentar.

A deputada Fernanda Melchionna (Psol-RS) reforçou o alerta com um exemplo concreto e recente:

“Ao usar uma ferramenta de IA inspirada na Disney Pixar, uma usuária inseriu a descrição ‘mulher negra na favela’ e a IA gerou a imagem de ‘uma mulher armada, como se bandida fosse’. Esse não é um caso isolado, mas sim um reflexo da transferência de preconceitos sociais para o ambiente tecnológico.”

Visão do setor privado

Representando o setor privado, Nicolas Andrade, diretor de políticas públicas da OpenAI para América Latina e Caribe, destacou que investimentos em IA requerem um ambiente regulatório previsível e seguro. O empresário ainda relembrou a questão estratégica dos data centers, argumentando que esses centros de dados recebem investimentos “de longo prazo e com custo altíssimo”:

“Investimentos, seja no treinamento de modelos, na abertura de pequenas e grandes empresas ou em infraestrutura (data centers), vão fluir na direção de países com ambientes regulatórios favoráveis”, argumentou Andrade, diretor na empresa criadora do ChatGPT.

O diretor-executivo da Dharma.AI, Gabriel Renault, reforçou que o Brasil ainda tem potencial de liderar o desenvolvimento de modelos de IA especializados, voltados ao português e a setores estratégicos, argumentando que “o país não deve focar apenas em grandes modelos generativos internacionais, mas sim aproveitar a oportunidade” para estimular modelos de IA que apresentem soluções alinhadas ao contexto local.

Durante a reunião, ambos especialistas defenderam maior clareza conceitual no texto legislativo, com definições técnicas melhor definidas entre os conceitos relacionados ao tema, distinguindo, por exemplo, um modelo de IA de um sistema.

“É como falar em motor e carro. A regulação deve ser diferente”, afirmou Andrade.

Relator busca equilíbrio entre inovação e proteção

O relator da comissão especial, deputado Aguinaldo Ribeiro (PP-PB), afirmou estar comprometido em construir um texto que equilibre proteção de direitos e estímulo à inovação:

“A minha provocação aqui para todos é: como a gente pode afunilar no texto que está proposto, que é o Projeto de Lei 2338/23, essa questão de reduzir os riscos, preservar os direitos do cidadão e também permitir o máximo de inovação?”, questionou o relator.

A votação do PL 2338/2023 poderá moldar o futuro da inteligência artificial no Brasil, com impactos diretos na soberania digital, nos direitos civis, na economia e no papel do país na corrida global por tecnologias emergentes.

O debate segue em curso na Câmara dos Deputados e deve receber novas emendas e ajustes nas próximas semanas. Para saber mais atualizações, acompanhe o Portal WebAdvocacy.

Mais notícias na WebAdvocacy

Comissão da Câmara aprova proposta que encerra monopólio dos Correios: veja o que pode mudar nos serviços postais do Brasil

Câmara instala comissão especial para debater novo marco regulatório dos portos

CADE apura formação de cartel e recomenda condenação no mercado imobiliário da Bahia

Bandeira vermelha em junho alerta para conta de luz mais cara e crise energética no Brasil

CADE julga caso histórico de cartel de combustíveis na próxima quarta (11)

CADE distribui caso da Bimbo e Wickbold para Conselheira

CADE considera complexidade de fusão Wickbold-Bimbo, após queixas da empresa Pandurata sobre competitividade

Acesse a página do Senado Federal

Senado Federal


Um oferecimento:

O atributo alt desta imagem está vazio. O nome do arquivo é logo-ma.png

Compartilhe nas redes sociais