Maxwell de Alencar Meneses

Em maio de 2024, o Conselho Administrativo de Defesa Econômica (Cade) apresentou sua contribuição ao projeto de lei (PL) destinado a regular a Inteligência Artificial (IA). Existem preocupações sobre o uso de algoritmos que podem facilitar estratégias anticompetitivas e dificultar a detecção e punição pelas autoridades competentes. Também se discute a necessidade de equilibrar a regulação da IA com incentivos à inovação, considerando os riscos e benefícios.

O órgão mantém, assim, sua postura equilibrada de advocacia da concorrência, evitando açodamentos, como já demonstrado no caso do projeto de lei de congelamento de preços durante a Covid, ou na questão da proibição da cobrança por bagagens em voos nacionais (CADE, 2020). A atual proposta inclui a criação de um sandbox regulatório como uma estratégia para testar e monitorar algoritmos de IA em um ambiente controlado. A ideia é equilibrar a regulação da IA com incentivos à inovação para evitar barreiras à entrada e promover a concorrência. (CADE, 2024)

Adicionalmente, o próprio Superintendente-Geral do Cade, Alexandre Barreto, de acordo com entrevista publicada no Valor Econômico por ocasião de sua recente recondução ao cargo, ao ser perguntado a respeito da IA como problema concorrencial em si, afirma de modo muito ponderado e pragmático que não seria possível dizer que se tornará um problema específico. No entanto, ele destaca que a IA é um instrumento que, se usado para infração econômica, entra na atuação do Cade, não pelo instrumento em si, mas pela sua utilização em efeito anticompetitivo. (OLIVON; PIMENTA, 2024)

Dessa forma, é possível extrapolar que ferramentas como bancos de dados, planilhas ou aplicativos de mensagens podem ser utilizadas para diversas infrações, incluindo delitos econômicos. Nesse sentido, exemplifica-se que a criação da planilha eletrônica, com suas atualizações automáticas, representou uma revolução em relação às versões datilografadas, acelerando muitos processos de trabalho e, infelizmente, também facilitando atividades criminosas. No entanto, isso não levanta questionamentos sobre uma eventual descabida necessidade de regulamentar o uso do pacote Office em si. Ressaltando de início, que nenhuma das cogitações desse texto representam a opinião de nenhuma instituição em particular, nem mesmo do autor, apenas de um teste de hipótese para fins de reflexão.

Logo, esse equilíbrio observado no Cade pode estar ausente em outras esferas. Muito se discute sobre os perigos da IA, frequentemente em tom apocalíptico, e não é difícil encontrar argumentos que sustentem essa visão. No entanto, sigamos aqui pela estrada menos percorrida, como em um teste científico para avaliar o verdadeiro estágio da IA ou se isso não passa de mais uma onda de marketing comum no ambiente tecnológico, usada para gerar interesse em novos produtos. Considerando que mudanças na sociedade frequentemente surgem de pensamentos entrópicos — ou seja, desvinculados de certezas estáticas estatais — é essencial manter a mente aberta. Como dizem: use a criatividade.

Por essa estrada menos percorrida, portanto, serão visitadas avaliações de cenários por parte de autoridades, assim como serão revisitadas ações comparáveis da história recente que podem lançar luz sobre as questões levantadas, iniciando pelo hype.

Nesse sentido, o Ph.D. em aprendizado de máquina pela Universidade Columbia, ex-professor da mesma instituição, escritor, CEO e co-fundador da Gooder AI, Eric Siegel, afirma categoricamente que o que vemos nas manchetes acerca da IA generativa (aquela que cria conteúdo em resposta a comandos dos usuários), em suas palavras, “It’s hyperbole. It’s hype.” Segundo Siegel, embora a tecnologia atual de fato ofereça eficiências e capacidades de automação, no mundo real ele não acredita que, tão cedo, ou sequer que haja avanços consistentes na direção da replicação da inteligência humana (SIEGEL, 2024).

Ao falar sobre incerteza, que é muitas vezes característica do hype, Jason Abelak, professor de economia na Yale School of Management, afirma que a IA representa um momento revolucionário na tecnologia, mas ainda há muitas incertezas sobre seu verdadeiro potencial. Abelak, assim como este artigo, questiona: estamos em um momento em que o progresso tecnológico irá acelerar drasticamente, resolvendo muitos dos problemas complexos que enfrentamos, ou a tecnologia existente basicamente estagnará? (GOOD WORK, 2023)

Como efeito colateral do hype ou de suas características, observam-se paralelos com danos ao progresso e ao acesso a tecnologias emergentes, algo que já ocorreu no passado. John Coogan, economista formado pela Northeastern University, CTO, documentarista e cofundador da Soylent e Lucy, e atualmente Entrepreneur-in-Residence no Founders Fund — que tem em seu portfólio empresas como OpenAI, Nubank e SpaceX —, afirma em seu documentário “AI Regulation, Explained” que a IA “acabou de se tornar nuclear”. Ele argumenta que, assim como aconteceu com o desenvolvimento da tecnologia atômica, a IA está gerando preocupações globais, e o futuro dessa tecnologia pode ser ameaçado por uma regulamentação excessiva, baseada no medo.

Coogan destaca que, após a criação da bomba atômica, o foco se desviou de uma visão promissora de energia nuclear abundante para uma corrida armamentista, sufocando o progresso civil. A IA pode estar seguindo um caminho semelhante, sendo amplamente utilizada por governos e militares, enquanto o público em geral se beneficia pouco dessa tecnologia. Portanto, em sua visão, seria necessária uma regulamentação equilibrada, que evite o bloqueio total da inovação e assegure que a IA traga benefícios reais, sem se tornar uma ferramenta de controle autoritário ou causar danos irreversíveis à sociedade (JOHN COOGAN, 2023).

Esse bloqueio indesejável mencionado por Coogan, causado pela mistura de hype e medo (hype-medo), já começa a se manifestar devido a regulações. O Brasil, assim como a União Europeia, ficou de fora do lançamento da IA da Meta em razão de entraves regulatórios. Enquanto isso, as ferramentas foram disponibilizadas em outros países da América Latina, como Argentina, Chile, Colômbia, Equador, México e Peru. Segundo uma reportagem da CNN, no início de julho, o Instituto Brasileiro de Defesa do Consumidor (Idec) notificou a Autoridade Nacional de Proteção de Dados (ANPD), a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade) sobre a forma como a Meta estava utilizando as informações dos usuários de suas redes sociais no Brasil para treinar sua inteligência artificial (BRITO, 2024).

Curiosamente, o hype-medo, funciona como um propulsor regulatório, sob a égide da proteção do uso de dados, tanto que para combater vazamentos e roubos de dados, o governo brasileiro decidiu parar de utilizar até mesmo o WhatsApp. Ricardo Cappelli, presidente da ABDI (Agência Brasileira de Desenvolvimento Industrial), abrirá uma licitação para escolher uma plataforma nacional de mensagens que garanta a preservação do sigilo nas comunicações da alta cúpula do governo. Cappelli argumenta que grandes plataformas de mensagens não devem ser usadas para a troca de informações no governo nem pelos demais poderes da União. De acordo com ele, essa alternativa visa aumentar a segurança na comunicação interna e evitar o vazamento de informações altamente sensíveis. Com essa nova iniciativa, as autoridades esperam “proteger a soberania” do país. (WIZIACK, 2024)

Essa proteção, sem fazer juízo de valor, remete ao caso em que o presidente Obama assumiu a responsabilidade pela espionagem da presidente Dilma Rousseff (MACEDO, 2013), levando o Serpro a criar o sistema Expresso V3 para evitar esse tipo de problema. Esse sistema, entretanto, foi descontinuado, e, a partir de 2017, o Zimbra, baseado em uma plataforma de software livre da empresa norte-americana Synacor, foi adotado como nova solução de e-mail para órgãos públicos. Em 2021, o Serpro finalizou a migração do correio eletrônico Zimbra, que usava o Google, para o Office 365 (CONVERGÊNCIA DIGITAL, 2021).

Exemplificando a que destino essa linha regulatória pode levar, a situação também remete à lei de internet soberana promulgada por Putin em 2019, que foi seguida pelo banimento de mídias sociais populares por serem estrangeiras (IYENGAR, 2022). De forma semelhante, Biden sancionou uma lei nos Estados Unidos banindo o TikTok (FUNG, 2024). Agora, as exigências brasileiras colocam o Brasil na lista de países onde o aplicativo X está proibido, como China, Coreia do Norte, Irã, Rússia, Nigéria, Mianmar e Turcomenistão (VICTORIA NOGUEIRA ROSA, 2024).

Nota-se que, segundo Barcellos (2024), a popularização do WhatsApp no Brasil realmente começou em 2013, ainda sem o mesmo impacto e relevância que tem atualmente. Talvez por isso, no caso da espionagem do governo Dilma por Obama e seus desdobramentos tecnológicos, o WhatsApp não tenha sido incluído no esforço original de criação de aplicativos nacionais substitutivos, como ocorre agora com as atuais preocupações.

Nesse sentido, parece que há um retorno ao “cenário do crime” anterior (espionagem), aplicando aparentemente o mesmo remédio precipitado, que ao longo do tempo se mostrou inviável e custoso, ou ainda cortinas de ferro digitais aplicadas em experiências autoritárias e ineficazes (THORNHILL, 2022). Além disso, o vai e vem nas estratégias adotadas tem se revelado ainda mais oneroso, já que mudanças de plataformas tecnológicas são, em geral, bastante dispendiosas. Em países como os EUA, por exemplo, mesmo sendo pioneiros em avanços na área, sistemas legados são mantidos por anos justamente para evitar essas transições custosas. Esse contexto pode explicar a acusação de obsolescência programada a que algumas plataformas estão sujeitas por meio de hype de inovações, um problema que, de certo modo, o Linux ajudou a amenizar, devido a capacidade de operar em máquinas antigas e de hardware limitado. É o que ocorre, por exemplo, com as atuais promessas de incorporação de IA em tudo. (KING, 2016).

Aliás, o criador do Linux, Linus Torvalds, em evento da Linux Foundation, também refletiu sobre o hype em torno da IA, observando que, atualmente, todas as empresas afirmam ter um foco em IA. Apesar das preocupações de que a IA possa substituir empregos como programação ou criação de filmes, ele expressou ceticismo em relação a essas alegações.

Com base em experiências passadas com sistemas de IA que não eram realmente inteligentes, Torvalds argumenta que é essencial aguardar para ver o que a IA realmente será capaz de realizar em 10 anos. Ele desconfia de promessas exageradas, comparando o alvoroço em torno da IA a tendências tecnológicas anteriores, como criptomoedas e computação em nuvem.

Torvalds pede cautela diante do exagero, destacando que, embora a IA possa automatizar tarefas e aumentar a eficiência, é improvável que substitua completamente os profissionais. Para ele, o verdadeiro potencial da IA será revelado ao longo do tempo, em vez de ser definido pela empolgação imediata que a cerca atualmente. (SAVVYNIK, 2024)

Esse hype, por alguns, é visto como uma bomba relógio. Na reportagem da CNBC, intitulada “AI’s trillion dollar time bomb”, é justamente abordada a crescente onda de investimentos em IA generativa por gigantes da tecnologia, como Microsoft, Google e Meta, que tem gerado preocupações sobre o retorno real dessas apostas bilionárias.

A matéria aponta que, enquanto há promessas de grandes avanços em produtividade e inovação, o progresso tangível tem sido modesto, com o setor de IA ainda lutando para apresentar aplicativos que justifiquem o enorme capital empregado. Empresas estão gastando bilhões em infraestrutura, como chips e data centers, mas o retorno financeiro esperado ainda é incerto.

Analistas alertam que, embora o potencial da IA seja promissor, ele pode levar mais tempo do que o previsto para se materializar, comparando a situação com a bolha da internet dos anos 2000. Apesar disso, muitos continuam otimistas de que os benefícios a longo prazo surgirão, mas enfatizam a necessidade de paciência e realismo quanto ao impacto imediato da IA. (CNBC TELEVISION, 2024)

Reforçando o coro da incerteza característica de um hype, a revista The Economist, em seu artigo intitulado “AI needs regulation, but what kind, and how much?”, explora o crescente debate sobre a regulamentação da IA, destacando a tensão entre os riscos existenciais de longo prazo e os danos imediatos da tecnologia. Segundo a matéria, diferentes abordagens estão sendo adotadas globalmente, desde a autorregulamentação até leis abrangentes. No entanto, a incerteza sobre o futuro da IA e seus impactos potenciais levanta a questão: talvez seja prematuro impor regulamentações rígidas sem uma compreensão completa do que regular e como fazê-lo de forma eficaz. (THE ECONOMIST, 2024)

Ainda sobre regulação desmedida, na história recente a respeito de outra hype, em 2018, Bill Clinton, na Ripple’s Swell Conference em San Francisco, expressou preocupações sobre a regulamentação excessiva de tecnologias emergentes, como blockchain. Clinton argumentou que, enquanto a regulamentação é necessária para proteger os mercados e os consumidores, uma abordagem excessiva pode sufocar a inovação. Naquela ocasião, ele comparava a regulamentação excessiva com o risco de matar a ‘galinha dos ovos de ouro’ da tecnologia blockchain, que, em seus estágios iniciais, poderia sofrer com regras rígidas que limitariam seu crescimento e potencial revolucionário. (HIGGINS; FLOYD, 2018)

Continuando pelo caminho da infinita hype, chega-se a avaliação de Steve Case, ex-CEO e presidente da America Online e ex-conselheiro do governo Obama, que viveu o auge da bolha das pontocom em 2000. Reconhecido como um dos empreendedores mais influentes da história da internet (“Steve Case”, 2020), Case falou na cúpula ‘Forjando o Futuro dos Negócios com IA’ da Imagination In Action sobre as semelhanças entre o boom da IA e o boom das pontocom, além das lições que os empreendedores de IA podem aprender com aquele período.

Segundo Case (FORBES, 2024), uma semelhança é que a tecnologia, seja a IA ou a internet, vinha se desenvolvendo há décadas, com 75 anos de investimento em torno da IA. Nos últimos 18 meses, a tecnologia acelerou consideravelmente, principalmente devido ao sucesso repentino do ChatGPT, que levou 75 anos para ser desenvolvido.

Case recorda que o mesmo aconteceu com a AOL. Fundada em 1983, na época apenas 3% das pessoas estavam online, e essas 3% passavam cerca de uma hora por semana na internet. Durante uma década, de 1985 a 1995, poucos se importavam com a internet; o foco estava em semicondutores, computadores pessoais e software. A maioria não acreditava que a internet se tornaria um fenômeno mainstream. Era vista como uma tecnologia de hackers e entusiastas de computadores. Mas em 1995, a internet acelerou e se tornou uma mania. As empresas começaram a mudar seus nomes para algo.com, assim como agora vemos empresas mudando seus nomes para algo com IA para estar na moda. A U.S. Steel, por exemplo, agora é U.S. Steel AI. Isso indica que a tecnologia chegou ao seu momento.

Case lembra de uma música antiga que diz: ‘Algo está acontecendo aqui, mas o que é, não está exatamente claro.’ Em 2000, muitas empresas .com abriram o capital, e muitas acabaram falindo. Houve uma visão de um ‘inverno nuclear da internet’, mas as empresas que sobreviveram, como Google e Facebook, conseguiram se tornar significativas e icônicas. Passava-se da fase em que a pesquisa estava sendo feita, mas sem tração significativa, para uma fase de atenção e crescimento.

Case espera que a IA possa passar para a próxima fase de forma menos disruptiva do que o boom das pontocom, onde 90% das empresas faliram. Ele ressalta que, embora haja preocupações com a regulamentação excessiva sufocando a inovação, nenhuma regulamentação também não é uma resposta adequada. Ele observa que as propostas atuais na Europa podem exagerar e sufocar a inovação, mas uma abordagem equilibrada é necessária.

Na última cúpula de IA do Senado americano, Case destacou a importância de garantir que, ao pensar em proteções e regras, o foco esteja em permitir que novas empresas comecem e cresçam, evitando a captura regulatória que poderia beneficiar apenas os operadores históricos.

Ele recorda que, em 1985, era ilegal para consumidores ou empresas estarem na internet, que era restrita a instituições educacionais e agências governamentais. O Congresso aprovou uma lei de telecomunicações para criar uma internet comercializada, e a FCC determinou o acesso aberto. Não bastava criar novas empresas de telefonia; era necessário permitir que outras, como a AOL, operassem em suas redes. Sem isso, os custos não teriam diminuído, a inovação não teria acelerado e empresas como a AOL não teriam existido.

Case resume as lições para a IA, ressaltando a importância de garantir que ela seja aberta e permita o surgimento de novas empresas, em vez de apenas fazer as grandes empresas de tecnologia se tornarem ainda maiores. Ele acredita que devemos errar para o lado de garantir que a IA seja acessível a todos e que os líderes em IA daqui a 20 anos sejam novas empresas e empreendedores que ainda não existem. Assim como na internet, onde os líderes não eram empresas como AT&T ou IBM, que gastaram um bilhão de dólares para lançar um empreendimento online chamado Prodigy e falharam, novas empresas surgiram e moldaram o cenário. Segundo o bilionário, esse é o arco da inovação e da história americana.

Portanto, ainda no contexto de incerteza, que desenha o retrato falado de uma hype, percebe-se uma estratégia mais coerente, no mesmo sentido proposto pelo Cade. Em seu artigo Regulatory Sandboxes for AI: A Policy Approach, a OECD sugere o uso de sandboxes de IA devido à sua capacidade de permitir a experimentação de tecnologias emergentes em um ambiente controlado e regulado. A principal vantagem desses sandboxes é que eles oferecem um espaço seguro para testar inovações enquanto gerenciam os riscos associados, promovendo a colaboração entre desenvolvedores, reguladores e outras partes interessadas. Essa abordagem não apenas facilita a inovação responsável, mas também garante maior transparência e permite que as tecnologias sejam avaliadas com base em critérios claramente definidos, otimizando assim os benefícios para a sociedade. (FERRANDIS; PERSET; YOKOMORI, 2023)

Em outra avaliação consonante com o que já foi descrito aqui, em dezembro de 2023, o presidente francês Emmanuel Macron expressou preocupações de que a nova Lei de Inteligência Artificial da UE, projetada para regular o desenvolvimento da IA, possa prejudicar a inovação e a competitividade das empresas de tecnologia europeias em comparação com seus rivais dos EUA, Reino Unido e China. Macron criticou a regulamentação rigorosa sobre modelos fundamentais de IA, como o ChatGPT, temendo que isso possa levar a um atraso em relação aos chineses e americanos. A nova lei impõe requisitos de transparência, restrições ao reconhecimento facial e proíbe o uso de IA para “pontuação social”. As empresas que não cumprirem a lei podem enfrentar multas de até 7% do faturamento global. Críticos argumentam que as novas regras exigirão muitos recursos para conformidade, desviando investimentos da inovação. No entanto, a presidente da Comissão Europeia, Ursula von der Leyen, elogiou a legislação, afirmando que ela “transpõe os valores europeus para uma nova era”. (ESPINOZA; ABBOUD, 2023)

Em mais uma exposição das incertezas, fica clara a única certeza: o perigo de perder competitividade e sufocar a inovação. Esse é o resumo da ópera do recente encontro de líderes mundiais realizado na Inglaterra, que abordou a regulamentação da inteligência artificial (IA). Durante a conferência, representantes de vários países, incluindo Brasil, China e EUA, assinaram uma declaração reconhecendo a importância de regular a IA, mas não chegaram a um consenso sobre uma regulação concreta. O debate sobre a viabilidade de controlar a IA continua, com figuras como Elon Musk questionando se tal controle é realmente possível (MILMO; STACEY, 2023). Contrastando com o cenário, de que nos EUA, uma ordem executiva de Biden sugere diretrizes para o desenvolvimento seguro da IA, mas não estabelece uma lei formal, indicativo de flexibilidade. No Brasil, a PL 2338/2023 propõe regras restritivas, mas há preocupações de que essas medidas possam retardar o progresso da IA no país. Como já percebido, a principal preocupação é que uma regulamentação excessiva possa inibir a inovação, enquanto países com regulações mais flexíveis avançam mais rapidamente no campo da IA.

Finalizando o caminho aqui percorrido de avaliações a respeito da IA, no que tange às regulações europeias, percebeu-se muitas preocupações por parte de autoridades no assunto que participaram do CEO Collaborative Forum (2024). Constantin Pavleas, advogado na União Europeia, admite que todos estão acostumados a ver a Europa regulamentando tudo. Ele lembra que, em certo ponto do processo regulatório, perceberam que ele já estava parcialmente desatualizado, o que resultou em mais um ano e meio de ajustes. Pavleas explica que o foco da regulamentação é a construção de confiança. A regulamentação foi projetada para ser baseada em risco: dependendo de como o sistema de IA for classificado, ele pode ser proibido, altamente regulamentado (se for considerado de alto risco), moderadamente regulamentado (se for de baixo risco) ou não regulamentado (se for de risco mínimo). Por exemplo, o reconhecimento facial para vigilância pública é proibido na UE. A pontuação social, como visto na China, também não será permitida. Da mesma forma, sistemas de IA que rastreiam comportamento e emoções em tempo real para manipular o comportamento humano não serão permitidos.

No que diz respeito à manipulação de comportamento, também não será permitido. Por exemplo, não será possível armar um drone e enviá-lo para atacar e matar alguém com base em uma decisão automatizada — isso não é permitido na UE. No entanto, há muitas outras aplicações da IA que podem ser classificadas como de alto risco. Em setores como saúde, recursos humanos ou educação, quaisquer decisões automatizadas que impactem significativamente as liberdades ou escolhas das pessoas podem ser consideradas de alto risco. Com essa classificação, surgem várias obrigações, incluindo o design adequado e a supervisão rigorosa da ferramenta.

Por exemplo, agora os sistemas de IA são considerados produtos na UE, o que significa que eles exigem a marcação CE. Pavleas afirma que a IA generativa se enquadra na categoria de baixo risco e que, quando a UE começou a trabalhar nessas regulamentações em 2022, o surgimento da IA generativa ainda não havia sido previsto. No entanto, após muito lobby e negociações, a IA generativa passou a ser regulamentada, especialmente em relação às obrigações de transparência.

Ao desenvolver um grande modelo de linguagem, é necessário fornecer uma lista suficientemente detalhada das fontes utilizadas. Isso pode parecer um requisito menor, mas representa um grande desafio para os desenvolvedores de grandes modelos de linguagem. O legislador da UE visa proteger os criadores de conteúdo ao exigir essa transparência, o que sujeita os grandes modelos de linguagem a essas novas obrigações.

O desafio recai sobre as pequenas e médias empresas (PMEs) da UE, que enfrentam uma enorme carga regulatória. Para advogados, isso cria um excelente modelo de negócios na Europa, na opinião de Constantin.

Já o Radouane Oudrhiri (Rad), Doutor e Ph.D. em Teoria da Informação e Sistemas pela ESSEC e Université d’AIX-Marseille, no mesmo evento, opina: “Em relação às leis, não acredito que elas resolvam os problemas subjacentes — elas são apenas o ponto de partida. Costumávamos dizer em IA: ‘Aqueles que podem, fazem; aqueles que não podem, simulam.’ Vou reformular isso: ‘Aqueles que podem, fazem; aqueles que não podem, regulamentam.’ Muitas vezes, há uma crença de que a regulamentação resolverá o problema, mas isso nem sempre acontece. Na maioria das vezes, pessoas com entendimento limitado da tecnologia acabam definindo as regulamentações, e acredito que é isso que está acontecendo agora na UE.

É lamentável, porque temos grandes talentos — muitos cientistas e especialistas em IA — mas talvez estejamos limitando o potencial deles. Isso é preocupante. O segundo problema é que eu não acho que a regulamentação seja a solução. Veja o exemplo dos dados: muitas vezes, assustamos as pessoas em relação ao uso de dados, mas eu os vejo como algo que pode salvar vidas. Os dados deveriam ser tratados como o sangue — deveríamos encorajar as pessoas a doá-los. No entanto, precisamos educá-las sobre o valor dos dados.

Não se trata de impor restrições ou proibir o uso de dados, mas sim de educar e mudar perspectivas. Isso é algo que ainda não consideramos completamente no contexto da regulamentação de IA. Por exemplo, a abordagem baseada em risco que estamos adotando foi emprestada da regulamentação de dispositivos médicos, e é assim que acabamos com este sistema. No entanto, há áreas onde essa abordagem não se encaixa perfeitamente.

Provavelmente o que vai acontecer é que muitos talentos irão para outros lugares — e isso já está acontecendo. Na Europa, particularmente em países como França e Reino Unido, temos grandes matemáticos, pois não devemos esquecer que a IA também é sobre matemática. O que vemos agora é que muitos cérebros estão migrando e trabalhando em outros lugares.

Também podemos ver novas startups que, em vez de abrirem aqui, estão sendo fundadas na África, nos EUA ou em outros lugares. Esse é o custo da conformidade. Isso vai tornar os custos tão altos que acabaremos fazendo isso em outros lugares.

Rad finaliza admitindo que a única maneira de acertar é ser humilde, reconhecer que não sabemos tudo, e entender que a regulamentação, por si só, não será suficiente. Acho que, agora, muitos governos e países estão apenas jogando o jogo para mostrar que estão participando. Mas muitos vão perceber que não vai funcionar. Algo mais colaborativo é necessário. Acredito muito mais em revisões de código aberto, baseadas na comunidade, do que em regulamentação. Educação é fundamental.

A partir de tudo que foi exposto, pode-se refletir sobre um ponto levantado no curso de Organização Industrial Aplicada à Concorrência e à Regulação Econômica, ministrado pelo doutor em economia e ex-conselheiro do Cade, Elvino Mendonça. Esse ponto, aparentemente simples, mas profundamente significativo, corrobora muito do que foi discutido aqui. O Dr. Elvino compartilha uma de suas ricas experiências na administração pública, em que, ao ser instado a regular determinado setor, questionou os envolvidos sobre o que e por que se pretendia regular essa matéria e qual falha de mercado seria abordada. Essas perguntas destacam a necessidade de clareza antes de qualquer ação regulatória — uma abordagem que, em alguns aspectos, contrasta com o cenário aqui apresentado, que se mostra dúbio e incerto conforme as avaliações mencionadas.

Em conclusão, o panorama atual da inteligência artificial (IA) é repleto de incertezas, com muitos sinais de que estamos diante de um hype ou, potencialmente, de uma bolha tecnológica. O entusiasmo exagerado em torno da IA, impulsionado por expectativas de avanços revolucionários, esbarra em dúvidas sobre a capacidade real dessas tecnologias de cumprirem suas promessas. Figuras como Eric Siegel e Steve Case, além de estudos e análises recentes, indicam que o progresso pode ser mais lento do que o previsto, reforçando o risco de uma supervalorização das expectativas.

Neste contexto, o Cade tem adotado uma abordagem prudente e equilibrada. Ao propor o uso de sandboxes regulatórios para testar e monitorar os impactos da IA, o Cade demonstra uma compreensão clara das complexidades envolvidas, evitando o exagero regulatório que poderia sufocar a inovação sem uma real necessidade. Essa postura se alinha a uma visão mais cautelosa e racional, reconhecendo tanto o potencial quanto os perigos da IA, sem ceder ao alarmismo que, em outros contextos, pode gerar regulações prematuras e prejudiciais ao desenvolvimento tecnológico.

Assim, o Conselho se posiciona de maneira acertada ao buscar um equilíbrio entre a necessidade de regulação e o incentivo à inovação, o que parece ser o caminho mais promissor em meio à incerteza que cerca a evolução da IA.

BARCELLOS, S. Que ano começou o WhatsApp no Brasil? Descubra aqui! Disponível em: <https://cidesp.com.br/que-ano-comecou-o-whatsapp-no-brasil/>. Acesso em: 22 ago. 2024.

BRASIL, R. Governo brasileiro busca usar aplicativo de mensagens nacional como alternativa ao WhatsApp. Disponível em: <https://rtbrasil.com/noticias/4919-governo-lula-busca-criar-app/>. Acesso em: 21 ago. 2024.

BRITO, A. Brasil fica fora de lançamento de IA da Meta após entraves regulatórios. Disponível em: <https://www.cnnbrasil.com.br/nacional/meta-lanca-nova-ia-mas-brasil-fica-de-fora-apos-acao-de-reguladores/#:~:text=Como%20consequ%C3%AAncia%20do%20imbr%C3%B3glio%2C%20a%20intelig%C3%AAncia%20artificial%20da>.

CEO COLLABORATIVE FORUM. Special CEO Reflect Episode – Milan Fireside Chat about Opportunities and Risks of AI systems. Disponível em: <https://www.youtube.com/watch?v=x0I9o7X9BqA&list=PLNYbb5E8nqm0ixEg_MScvQtjJBJksYQiV&index=65>. Acesso em: 3 set. 2024.

CNBC TELEVISION. CNBC Television. YouTube, 2024. Disponível em: <https://www.youtube.com/watch?v=dx-tMK7w5g8>. Acesso em: 22 ago. 2024

CONSELHO ADMINISTRATIVO DE DEFESA ECONÔMICA. EMENTA: APRESENTAÇÃO DE CONTRIBUIÇÃO DO CADE, EM ÂMBITO DE ADVOCACIA DA CONCORRÊNCIA, SOBRE O PROJETO DE LEI 2.338/2023, QUE DISPÕE SOBRE O USO DE INTELIGÊNCIA ARTIFICIAL, E OUTROS NOVE PROJETOS QUE TRAMITAM EM APENSO. [s.l: s.n.]. Disponível em: <https://cdn.cade.gov.br/Portal/assuntos/noticias/2024/Contribui%c3%a7%c3%a3o%20CADE%20PL%202338_final.pdf>. Acesso em: 4 jun. 2024.

CONSELHO ADMINISTRATIVO DE DEFESA ECONÔMICA. Ministério da Justiça e Segurança Pública -MJSP Conselho Administrativo de Defesa Econômica -CADE. [s.l: s.n.]. Disponível em: <https://cdn.cade.gov.br/Portal/centrais-de-conteudo/publicacoes/estudos-economicos/advocacy/QIP-2020/SEI_CADE%20-%200737899%20-%20Nota%20T%C3%A9cnica%2015%20-%2008027000240-2020-70.pdf>. Acesso em: 4 jun. 2024.

CONVERGÊNCIA DIGITAL. Serpro dá adeus ao software livre e inicia uso do Office 365. Disponível em: <https://convergenciadigital.com.br/especial/cloud/serpro-d-adeus-ao-software-livre-e-inicia-uso-do-office-365/>. Acesso em: 21 ago. 2024.

Entra em vigor na Rússia lei de “internet soberana”. Disponível em: <https://noticias.uol.com.br/ultimas-noticias/deutschewelle/2019/11/01/entra-em-vigor-na-russia-lei-de-internet-soberana.htm#:~:text=Em%20nome%20da%20seguran%C3%A7a%20cibern%C3%A9tica%2C%20a%20lei%20que>. Acesso em: 21 ago. 2024.

ESPINOZA, J.; ABBOUD, L. EU’s new AI Act risks hampering innovation, warns Emmanuel Macron. Disponível em: <https://www.ft.com/content/9339d104-7b0c-42b8-9316-72226dd4e4c0>.

FERRANDIS, C.; PERSET, K.; YOKOMORI, Y. Regulatory sandboxes can facilitate experimentation in artificial intelligence – OECD.AI. Disponível em: <https://oecd.ai/en/wonk/sandboxes>.

FORBES. Billionaire Steve Case On How The AI Boom Mimics The Dot-Com Boom. Disponível em: <https://www.youtube.com/watch?v=uR6Wza9bS_o&list=PLNYbb5E8nqm0ixEg_MScvQtjJBJksYQiV&index=24>. Acesso em: 22 ago. 2024.

FUNG, B. Biden sanciona lei que pode proibir TikTok; entenda o que acontece agora. Disponível em: <https://www.cnnbrasil.com.br/internacional/biden-sanciona-lei-que-pode-proibir-tiktok-entenda-o-que-acontece-agora/>. Acesso em: 21 ago. 2024.

GOOD WORK. Is A.I. overhyped? Disponível em: <https://www.youtube.com/watch?v=WOk5jUihRgs&list=PLNYbb5E8nqm0ixEg_MScvQtjJBJksYQiV&index=3>. Acesso em: 21 ago. 2024.

HIGGINS, S.; FLOYD, D. Bill Clinton: Over-Regulation Could Kill Blockchain’s “Golden Goose”. Disponível em: <https://www.coindesk.com/markets/2018/10/01/bill-clinton-over-regulation-could-kill-blockchains-golden-goose/>. Acesso em: 22 ago. 2024.

IYENGAR, R. Cortina de ferro digital: como a internet russa se assemelha ao modelo chinês. Disponível em: <https://www.cnnbrasil.com.br/economia/macroeconomia/cortina-de-ferro-digital-como-a-internet-russa-se-assemelha-ao-modelo-chines/>. Acesso em: 21 ago. 2024.

JOHN COOGAN. AI Regulation, Explained. Disponível em: <https://www.youtube.com/watch?v=Heqb3W8Jw_E>. Acesso em: 21 ago. 2024.

KING, B. Defeat Planned Obsolescence with Linux and Open Source Software. Disponível em: <https://www.makeuseof.com/tag/protect-planned-obsolescence-using-linux-open-source-software/>. Acesso em: 22 ago. 2024.

MACEDO, J. Obama assume a responsabilidade por espionagem da presidente Dilma Rousseff. Disponível em: <https://arquivo.canaltech.com.br/espionagem/Obama-assume-a-responsabilidade-por-espionagem-da-presidente-Dilma-Rousseff/>. Acesso em: 21 ago. 2024.

MILMO, D.; STACEY, K. “It’s not clear we can control it”: what they said at the Bletchley Park AI summit. The Guardian, 1 nov. 2023.

OLIVON, B.; PIMENTA, G. Reconduzido a posto no Cade, Barreto quer olhar com lupa para licitações. Disponível em: <https://valor.globo.com/brasil/noticia/2024/07/15/reconduzido-a-posto-no-cade-barreto-quer-olhar-com-lupa-para-licitacoes.ghtml>. Acesso em: 20 ago. 2024.

QUEIROZ, L. Espionagem faz governo rever política de adoção de software livre. Disponível em: <https://jornalggn.com.br/politica/espionagem-faz-governo-rever-politica-de-adocao-de-software-livre/>.

SAVVYNIK. Linus Torvalds: Speaks on Hype and the Future of AI. Disponível em: <https://www.youtube.com/watch?v=7GIZi7nlIe0&list=PLNYbb5E8nqm0ixEg_MScvQtjJBJksYQiV&index=20>. Acesso em: 22 ago. 2024.

SIEGEL, E. Generative AI is not the panacea we’ve been promised. Disponível em: <https://bigthink.com/series/legends/eric-siegel-generative-ai/>. Acesso em: 20 ago. 2024.

SIMÕES GOMES, H. Uruguai adotará e-mail brasileiro criado contra espionagem dos EUA. Disponível em: <https://g1.globo.com/tecnologia/noticia/2014/02/uruguai-adotara-e-mail-brasileiro-criado-contra-espionagem-dos-eua.html>. Acesso em: 21 ago. 2024.

Steve Case. Disponível em: <https://en.wikipedia.org/wiki/Steve_Case>.

THE ECONOMIST. AI needs regulation, but what kind, and how much? Disponível em: <https://www.economist.com/schools-brief/2024/08/20/ai-needs-regulation-but-what-kind-and-how-much>. Acesso em: 22 ago. 2024.

THORNHILL, J. Russia’s digital iron curtain will fail. Disponível em: <https://www.ft.com/content/26e88a2b-c7ba-46c7-8191-490188f4757b>.

VICTORIA NOGUEIRA ROSA. Saiba em quais países o X, antigo Twitter, é proibido. Disponível em: <https://valor.globo.com/mundo/noticia/2024/04/09/saiba-em-quais-paises-o-x-antigo-twitter-e-proibido.ghtml>. Acesso em: 21 ago. 2024.

WIZIACK, J. Contra vazamentos e roubo de dados, agência do governo não usará mais WhatsApp. Disponível em: <https://www1.folha.uol.com.br/colunas/painelsa/2024/08/contra-vazamentos-e-roubo-de-dados-agencia-do-governo-quer-banir-whatsapp.shtml>. Acesso em: 21 ago. 2024.


Maxwell de Alencar Meneses, cearense radicado em Brasília há 35 anos, é Cientista da Computação, MBA Especialista em Gestão de Projetos, Especialista em Defesa da Concorrência e Direito Econômico, atua no Cade na análise de Atos de Concentração e anteriormente no Projeto Cérebro, na área de Cartéis.  Participou e acompanhou por 30 anos a concorrência no mercado de inovação e tecnologia no âmbito do Governo Federal e em organizações líderes de mercado, como Fundação Instituto de Administração, Xerox do Brasil, Computer Associates, Bentley Systems e Vivo.


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *