Apresentação
Os Textos para Discussão da WebAdvocacy é uma série de textos técnico-científicos nas áreas de direito e economia, que visa a ampliar a discussão acadêmica em torno dos temas de defesa da concorrência, regulação econômica, comércio internacional, direito econômico, direito tributário, entre outros.
Os textos para discussão da WebAdvocacy estão disponíveis para leitura na plataforma no link: Textos para Discussão.
Corpo editorial
Editor:
Elvino de Carvalho Mendonça
Conselho editorial:
Amanda Flávio de Oliveira – Doutora em direito
Eduardo Molan Gaban – Doutor em direito
Elvino de Carvalho Mendonça – Doutor em economia
Fernanda Manzano Sayeg – Doutora em direito
Fernando de Magalhães Furlan – Doutor em direito
Katia Rocha – Doutora em Engenharia de Produção/Finanças
Luiz Alberto Esteves – Doutor em economia
Márcio de Oliveira Júnior – Doutor em economia
Marco Aurélio Bittencourt – Doutor em economia
Marcos André Mattos de Lima – Mestre em economia
Rachel Pinheiro de Andrade Mendonça – Doutora em direito
Vanessa Vilela Berbel – Doutora em Direito
Ficha catalográfica
As opiniões emitidas nesta publicação são de exclusiva e inteira responsabilidade dos autores, não exprimindo, necessariamente, o ponto de vista da WebAdvocacy – Direito e Economia.
É permitida a reprodução deste texto e dos dados nele contidos, desde que citada a fonte. Reproduções para fins comerciais são proibidas.
A regulação pela tecnologia sob a ótica da economia da complexidade
Pedro Victhor Gomes Lacerda
Resumo
Nos últimos anos, tem havido um crescente interesse na regulação de tecnologias emergentes, como a inteligência artificial e a blockchain. No entanto, a regulação por meio da tecnologia apresenta desafios únicos, uma vez que essas tecnologias são complexas e dinâmicas, com efeitos imprevisíveis e difíceis de avaliar. A economia da complexidade oferece uma estrutura teórica para entender esses desafios e explorar as possibilidades e limites da regulação pela tecnologia. Este artigo tem como objetivo discutir as implicações da economia da complexidade para a regulação pela tecnologia e destacar as questões críticas que precisam ser abordadas para alcançar uma regulação eficaz e equitativa. Nessa perspectiva, será abordado o papel da regulação na tecnologia, bem como as implicações da regulação pela tecnologia para a governança democrática, a justiça social e a responsabilidade. Por fim, serão apresentadas algumas perspectivas futuras para a regulação pela tecnologia sob a ótica da economia da complexidade.
Introdução
A crescente utilização dos algoritmos em todos os aspectos da nossa vida. A evolução da tecnologia, a popularização de tecnologias pessoais como os computadores e os celulares alinhados com a popularização e o “fácil acesso” à internet colocaram a internet no centro das discussões de várias áreas acadêmicas. Reflexo desse fenômeno, as empresas de tecnologia hoje são posicionadas como as mais influentes do mundo, sendo protagonistas nas discussões que envolvem tecnologia e a proteção de direitos pessoais (ULBRICHT; YEUNG, 2022).
Os governos, universidades e o setor privado vêm fazendo grandes investimentos para não apenas para coletar e armazenar dados, mas também para descobrir maneiras de extrair novos conhecimentos dos crescentes bancos de dados (MEDINA, 2015).
A cultura da alta tecnologia é tomada por um entusiasmo – também movido por interesses capitalistas – que celebra a tecnologia como uma solução mágica para os problemas sociais, ao mesmo tempo em que abraça valores como a individualidade, responsabilidade social e superioridade do poder inovativo do setor privado frente ao poder estatal.
Apesar do entusiasmo com as infinitas possibilidades oferecidas pelo avanço da tecnologia, o crescimento desorganizado das inovações tecnológicas pode trazer riscos à direitos até então bem definidos e protegidos pelo direito.
O avanço da tecnologia e sua relação com a proteção de direitos pessoais e coletivos exige, portanto, uma revisitação às categorias jurídicas e uma adaptação da regulação existente (FRAZÃO, 2017).
Os primórdios da regulação pela tecnologia
Em meados da década de 1990, em um contexto de euforia pós-comunista, com a consolidação do poder político dos Estados Unidos, surgiu no ocidente um novo tipo de sociedade que, ao contrário da experiência comunista recém fracassada, prometia liberdade irrestrita e um ambiente completamente livre das amarras estatais.
O ciberespaço surgiu de uma experiência militar dos Estados Unidos, e prometia um tipo de sociedade que o espaço real nunca permitiria, onde não só as leis do mundo físico não se aplicariam no ambiente virtual, mas, na visão do movimento libertário, o governo por uma questão de legitimidade não poderia regular o ciberespaço.
Lessig (2000) afirma que a mão invisível do ciberespaço – ou seja, o processo espontâneo de desenvolvimento e regulação do ambiente digital – está construindo uma arquitetura exatamente oposta à que existia em sua concepção inicial. Antes vista como um ambiente de liberdade e privacidade, hoje a arquitetura da internet é usada para coletar dados, monitorar comportamentos e controlar informações (PASQUALE, 2015).
Reindeberg (1997) entende que o código atua como uma restrição ao comportamento humano no ciberespaço, cunhando o conceito de “Lex Informatica” como o conjunto de regras para fluxos de informação impostas pela tecnologia e redes de comunicação. De acordo com esse conceito, o código é tratado como lei (code is law), ou seja, a arquitetura do código é tratada como o meio mais eficaz de regulação do comportamento.
Basicamente, duas correntes teóricas divergem acerca do tratamento regulatório da regulação do ciberespaço. O ciberlibertarianismo argumenta que, uma vez que as leis do mundo físico estão sujeitas à territorialidade e jurisdição, não seria possível aplicá-las ao ambiente transfronteiriço do mundo virtual. Não obstante, ainda defendem que haveria uma ilegitimidade legislativa, visto que, sendo o ciberespaço um ambiente único e integrado, não haveria
autoridade ou Estado com legitimidade para impor restrições ao mundo digital. Nesse sentindo, defendem que a regulação digital deve ocorrer por outros meios que não pelos dispositivos jurídicos tradicionais do direito.
O ciberpaternalismo, por sua vez, afirma que as atividades desenvolvidas na internet se assemelham a atividades transnacionais que, se acontecessem no mundo físico, seriam reguladas. Assim, buscam integrar a arquitetura da internet ao contexto fático e jurídico do mundo físico, de modo que as ações praticadas no ciberespaço sejam amparadas pelas mesmas normas do mundo físico, porém com o auxílio de tecnologias adaptativas para o ambiente digital.
Entretanto, Ostercamp (2021) afirma que ambas as correntes apresentam fragilidades, pois assumem implicitamente que o código é capaz de exercer o controle perfeito do ambiente digital, seja por meio da autorregulação, seja por meio de uma autoridade estatal. O autor afirma que o código pode ser contornado, e que o controle imperfeito exercido pelo código deixa lacunas regulatórias que podem ser preenchidas por outros fatores, como a influência das leis, mercados ou normas sociais.
De Fillipi e Hassan (2016), ao tratar da regulação no contexto do blockchain, sugerem uma transição do code is law para o code as law, onde o código pode ser usado para implementar regras específicas no ambiente tecnológico. Entretanto, tal medida também esbarra em limitações provenientes da natureza incompatível do direito com o código. A linguagem utilizada pelo código é específica e literal, enquanto a linguagem jurídica possui uma textura aberta e generalizada, para que o dispositivo legal possa se subsumir às situações da vida cotidiana com maior facilidade, deixando a cargo do julgador a aplicação da norma em cada caso concreto.
Converter a linguagem natural do direito para a linguagem binária do código é um desafio para os juristas e programadores. Apesar de haver exemplos de aplicação desse tipo técnica, como os smart contracts, à medida que o cenário fático se torna mais complexo, também é mais desafiador programar normas que se adaptem a cenários mais complexos e com mais variáveis.
Para além das teorias de code is law e code as law, Ostercamp sugere uma descrição alternativa conhecida como code and law, onde defende que a regulação do ciberespaço não é puramente arquitetônica, mas um híbrido de arquitetura e processo social. Para além da
arquitetura do código, algumas funções regulatórias são determinadas por seres humanos por meio de leis e hierarquias.
Segundo Hidelbrandt (2016), em razão da interdependência entre direito e tecnologia, é fundamental que juristas e cientistas da computação se comuniquem e colaborem de maneira mais cooperativa para que compreendam as perspectivas e necessidades uns dos outros. Tal medida, contudo, envolve uma abordagem interdisciplinar e a atuação de vários outros agentes públicos e privados que têm interesses e objetivos diversos em pauta.
Regulação pela tecnologia
A regulação pela tecnologia, denominada por Ulbricht e Yeung (2022) como “regulação algorítmica”, pode ser definida como as tentativas conscientes de gerenciar riscos ou alterar comportamentos para alcançar um objetivo “pré-especificado”. Essas tentativas ocorrem por meio de procedimentos codificados para solucionar um problema por meio da transformação de dados de entrada em um resultado desejado (YEUNG, 2018).
Esse conceito direciona sua atenção a analisar como os sistemas computacionais são projetados, configurados e implementados para atingir um propósito específico, bem como os impactos sociais causados por esses mecanismos. A dificuldade de compreender o algoritmo em sua totalidade pode levar a uma concepção equivocada do algoritmo como um processo isolado, ou uma falha em perceber como o poder pode ser exercido através da tecnologia (BEER, 2017).
A regulação algorítmica pode ser entendida como um processo que envolve essencialmente três componentes: (i) o estabelecimento de padrões; (ii) a coleta de informações; e (iii) a aplicação de padrões e modificações de comportamento. No primeiro nível, definem-se as normas e os critérios que devem ser atendidos pelo sistema algorítmico para atingir o objetivo determinado; no segundo nível, atua-se de forma reativa (detectando violações com base em dados históricos) ou preditiva (aplicando algoritmos de aprendizado para prever e interferir em comportamentos futuros); por fim, no último nível o sistema pode administrar uma sanção especificada automaticamente ou fornecer assistência a um tomador de decisões humano (YEUNG, 2018).
Hildebrandt (2018) divide a regulação algorítmica em duas: (i) code driven regulation, onde os algoritmos podem operar automaticamente e modificar o comportamento dos usuários
sem a necessidade de intervenção humana direta, e (ii) data driven regulation, onde os algoritmos preditivos usam dados para monitorar e prever comportamentos a fim de fornecer suporte ou aconselhamento de decisão.
Na regulação orientada por código (code driven regulation), o comportamento a ser regulado depende de uma série de condições “se isso” e ações correspondentes “então aquilo” (em inglês, “if this, then that”, ou IFTTT). Ou seja, se uma determinada condição for atendida, uma ação será tomada automaticamente sem a necessidade de intervenção humana. Segundo Hitelbrand, esse tipo de lógica é determinística e previsível, pois quem determina “isso” como condição do “aquilo” decide o output do sistema, que não tem qualquer discrição.
Tais decisões podem ser visualizadas como uma árvore onde, a depender da entrada, os caminhos serão traçados de maneiras diferentes e, consequentemente, a decisões diferentes e pré-determinadas. Entretanto, a regulação nesse contexto depende de como as normas (legais ou não) foram traduzidas para o código de computador.
Quanto à essa questão, Ostercamp (2021) afirma que, embora o código que integre a lei possa permitir a execução automática ex-ante, a generalidade do código e a reatividade das formas tradicionais do direito podem resultar no código ultrapassando o desenvolvimento do direito tradicional, levando ao surgimento cíclico de novas tecnologias que se diferenciam das restrições legais impostas.
Já na regulação orientada por dados (data-driven regulation), o código é informado pelos dados nos quais foi treinado em vez de ser informado por especialistas que traduziram as regras e as colocaram no código. Esse modelo de regulação utiliza técnicas como machine learning e análise de dados para monitorar, prever e influenciar o comportamento das pessoas e organizações.
A regulação orientada por código, como dito, pressupõe saídas pré-determinadas pelo programador, de acordo com a lógica IFTTT. Nesse sentido, é essencial que a estrutura do código que determina suas decisões finais a partir dos inputs gerados pelos usuários seja transparente para que os usuários entendam como as decisões são tomadas e como as regras são aplicadas.
Também é essencial que os usuários tenham a possibilidade de contestar decisões que consideram injustas ou equivocadas, o que só será possível a partir da obtenção de informações acerca do funcionamento do próprio código. No fim das contas, a regulação orientada por
código é um reflexo das decisões humanas automatizadas, de modo que o código não fala por si, mas apenas executa os comandos pré-determinados pelos desenvolvedores que, por sua vez, podem refletir seus próprios vieses e crenças no algoritmo.
Já a regulação orientada por dados, embora seja uma poderosa ferramenta para identificar tendências e padrões, também apresenta riscos significativos. Se os dados utilizados para alimentar o algoritmo não forem representativos ou não incluírem todas as variáveis relevantes, as decisões tomadas com base nesses dados podem ser parciais ou discriminatórias.
Em alguns casos, os algoritmos podem tomar decisões não compreensíveis para o humano. Isso ocorre porque tais decisões são baseadas em modelos matemáticos complexos que podem ser difíceis de compreender até mesmo para especialistas em dados, o que pode tornar a decisão algorítmica ocasionalmente “irrefutável”, não por sua lógica absoluta, mas pela dificuldade de destrinchar os passos que levaram à decisão.
O conjunto desses fatores compõe o processo de regulação algorítmica, onde os sistemas regulatórios são continuamente avaliados e ajustados para garantir a conformidade com os padrões estabelecidos. Entretanto, é preciso refletir sobre como os padrões são estabelecidos e quem é responsável por esse tipo de decisão, pois a depender de quem escolhe a tecnologia e os fins de sua utilização, tanto a estrutura social quanto estatal podem ser alteradas de acordo com a alocação de direitos e de recursos (FRAZÃO, 2017).
O poder social dos algoritmos
Para aprofundar como o algoritmo e seu processo de formação interagem com a sociedade, é preciso, primeiramente, definir como abordá-lo. Existem diversas formas de se tratar o assunto, assumindo o algoritmo como um conjunto de linhas de código, como objetos ou até mesmo como processos sociais.
De toda forma, não é possível separar o algoritmo do contexto social em que está inserido e constantemente aprimorado. Abordá-lo como um objeto puramente técnico que tem como objetivo racionalizar as tomadas de decisão humanas seria ignorar todo o contexto de seu desenvolvimento. Os algoritmos são modelados a partir de visões de mundo e com objetivos previamente definidos que certamente influenciam sua forma de comportamento e os processos de ajustes e recodificação a depender do resultado gerado (BEER, 2017).
Latour (1994), a partir de sua concepção da teoria ator-rede – um conjunto de atores humanos e não-humanos conectados a partir de relações de interdependência –, ajuda a entender como uma ampla variedade de atores (programadores, designers, usuários, dados, plataformas etc.) nesse contexto interagem para criar e moldar o funcionamento do algoritmo.
Portanto, o algoritmo não seria uma entidade autônoma e independente, mas o resultado da interação de pessoas e organizações que participam da sua criação e modificação. Os algoritmos, nessa perspectiva, não são construídos a partir de um conjunto objetivo de dados ou regras, mas sim moldados por interesses, visões de mundo e perspectiva dos atores envolvidos.
Burrell e Fourcade (2021) defendem a existência de uma nova classe na sociedade digitalizada, composta por um grupo formado essencialmente por desenvolvedores de software, CEOs de empresas de tecnologia, investidores e professores de ciência da computação e engenharia, a qual denominam “the coding elite”.
Essa elite tem como principal habilidade a capacidade de entender e criar códigos algorítmicos. A referida comunidade é altamente influente na sociedade digital e circula por diferentes posições de poder em startups, grandes empresas de tecnologia, laboratórios de pesquisa e desenvolvimento e salas de aula. Inclusive os autores definem como problemática a relação entre indústria e academia, tendo em vista que profissionais com papéis estratégicos em grandes indústrias também figuram no corpo docente das mais influentes universidades que contribuem para a criação do conhecimento tecnológico. Tal relação resulta em uma linha tênue entre o conhecimento científico e os interesses corporativos, visto que os precursores das teorias acadêmicas também são os executivos das grandes empresas de tecnologia. Desse modo, há de se questionar até que ponto as discussões acadêmicas não estariam sendo pautadas por interesses empresariais.
A elite do código expõe de forma clara uma segregação epistemológica crucial para entender a regulação algorítmica e o desenvolvimento dos processos tecnológicos: o grau de compreensão do código. Se somente os programadores e profissionais da tecnologia da informação são capazes de compreender a estrutura dos códigos que são utilizados em todos os âmbitos da vida cotidiana, estes se comunicam entre si em uma linguagem não acessível para o restante da sociedade, o que prejudica a forma do diálogo aberto da sociedade quanto aos paradigmas tecnológicos enfrentados atualmente.
Pasquale (2015) afirma que, em razão do contexto de seu desenvolvimento, os algoritmos se tornaram verdadeiras “caixas-pretas”, que dependem de processos computacionais sofisticados e são protegidos como segredos comerciais. Entretanto, esses algoritmos são capazes de exercer ou influenciar tomadas de decisão com consequências substanciais em diversas áreas da sociedade, o que demanda uma maior responsabilidade e, portanto, transparência por parte dos desenvolvedores desses algoritmos.
A abordagem sociológica da construção algorítmica mostra como a construção do código não é linear ou objetiva, mas movida por uma variedade de interesses, atores e contextos que tornam o desenvolvimento do código imprevisível. Nesse sentido, ao abordar a perspectiva econômica da regulação pela tecnologia, é necessário também recorrer à uma abordagem que não seja refém de mecanismos determinísticos ou absolutos, visto que o contexto da evolução tecnológica é formado por uma variedade de fatores e elementos.
A regulação pela tecnologia sob a ótica da economia da complexidade
O desenvolvimento tecnológico de maneira geral e a regulação pela tecnologia podem ter um impacto significativo na economia. Embora sejam nítidos os avanços proporcionados pela tecnologia, o seu mau uso pode trazer sérias consequências em termos de segurança, privacidade, concorrência etc.
Brian Arthur (2013) defende, sob a ótica da economia da complexidade, que o não- equilíbrio é o estado natural da economia, que está sempre aberta a reações. Uma das principais razões desse estado natural de desequilíbrio é a inovação tecnológica.
Arthur (2009) afirma que a economia é uma expressão de suas tecnologias. A economia, segundo o autor, é moldada e influenciada pelas tecnologias que são utilizadas nas atividades econômicas e sociais. As tecnologias moldam a estrutura econômica, enquanto a economia medeia a criação de novas tecnologias.
A economia, portanto, não seria simplesmente um recipiente para as atividades econômicas, mas uma ecologia complexa de tecnologias, decisões e atividades que estão continuamente se reformando e criando nichos de oportunidade para novas tecnologias emergirem. O caráter da economia muda à medida que novas tecnologias são introduzidas e novas oportunidades são criadas.
Os processos tecnológicos também estão ligados à determinismos advindos da economia neoclássica. Mirowski (2002) alerta sobre o surgimento de uma classe de economistas que acreditam que os computadores podem ser usados para criar modelos econômicos precisos e, portanto, prever o comportamento econômico futuro. De acordo com essa linha de pensamento, os economistas argumentam que a grande capacidade de processamento de dados e variáveis podem permitir a construção de modelos econômicos precisos como nunca visto antes.
Esse pensamento é criticado por Skidelski (2020), que afirma que, como os profissionais da tecnologia, economistas acreditam que, com dados e poder de processamento suficientes, podem “quebrar o código” do comportamento humano. Essa prática advém da redução das estruturas sociais à meras transações econômicas e do tratamento do homem como agente racional, ignorando ou reduzindo demasiadamente o impacto das relações sociais e de variáveis endógenas na análise econômica.
Essa crença, segundo Mirowski (2002), é influenciada pelo aumento da confiança na tecnologia e na ciência. Entretanto, é preciso agir com cautela, pois essa crença pode levar a uma confiança excessiva nos modelos econômicos e à negligência de fatores que não podem ser tão facilmente quantificados ou incorporados aos modelos.
O que esses economistas não levam em conta é que, conforme levantado por Burrell e Fourcade (2021), a elite do código utiliza-se de argumentos baseados em economia comportamental e psicologia social para justificar suas decisões, muitas vezes recorrendo a comparações entre tomadores de decisão humanos e ferramentas algorítmicas, mas em testes projetados para favorecer o código.
Apesar de parecerem argumentos cientificamente embasados e objetivos (o que, em tese, blindariam o próprio algoritmo de questionamentos), muitas vezes estes são estruturados de forma a favorecer os interesses técnicos. Ao comparar a eficiência algorítmica com a tomada de decisão humana, não se leva em consideração, por exemplo, que a tomada de decisão algorítmica também pode ser influenciada por preconceitos ou desigualdades originalmente pertencentes aos humanos e refletidas na criação do código.
O uso prático da matemática é um dos fatores que influenciam a utilização do argumento da objetividade do código. Assim como a linguagem matemática ocidental e sua suposta linguagem neutra e objetiva é utilizada como argumento basilar da economia mainstream, os
processos matemáticos por trás dos algoritmos são usados como justificativa para um output
preciso nas tomadas de decisão.
A visão mais aceita sobre as estruturas matemáticas é que estas são realizações racionais e científicas resultadas de um processo produção intelectual cumulativa, de onde surgiu a ciência moderna e, por consequência, realizações tecnológicas disruptivas. Entretanto, não se questiona se tais estruturas tem a capacidade de suprimir a consciência moral dos indivíduos como agentes livres e de valor para a sociedade. Ou seja, o fato de que as estruturas matemáticas são concebidas e implementadas sem levar em consideração as implicações sociais e éticas do comportamento humano pode ter consequências negativas na sociedade (DE CASTRO, 2019).
Ao fazer esse tipo de análise, não se leva em conta outros fatores que não a objetividade matemática da economia neoclássica. Quando essa objetividade pretensiosamente imparcial é aplicada nos modelos regulatórios tecnológicos, o debate sobre regulação pela tecnologia pode se tornar cada vez mais enviesado e, portanto, mais periculoso aos usuários e à toda sociedade.
A análise da regulação tecnológica como propriedade emergente de um sistema maior permite combinar a análise da regulação como resultado de tomadas de decisão intencionais dos agentes com a compreensão das propriedades do sistema no qual a regulação ocorre e que a torna possível (ANTONELLI, 2011).
Desse modo, é necessário refletir sobre a eficiência dos algoritmos não só na regulação de cenários complexos, mas também levando em consideração que o desenvolvimento dos algoritmos e suas utilizações são movidos por diferentes agentes, interesses e objetivos, sendo imperioso tratar do tema de maneira cautelosa e sem abraçar a suposta objetividade por trás dos modelos criados.
Riscos e perspectivas
Diante do cenário tratado, é possível discutir sobre quais são as perspectivas para o uso da tecnologia como regulação, bem como quais riscos estão relacionados à essa utilização, e o que pode ser feito para superar os problemas apresentados.
Pasquale aponta como um dos riscos da regulação algorítmica a discriminação, ou seja, o viés algorítmico utilizado nas decisões. No caso da regulação orientada por código, esse viés já se torna presente na própria estruturação do algoritmo, quando o desenvolvedor impõe seus próprios vieses no código, de modo que a tomada de decisões será feita a partir da visão de
mundo do próprio desenvolvedor. Esse processo pode acontecer tanto de forma inconsciente quanto de forma proposital, porém implícita, já que os interesses dos criadores dos algoritmos podem estar presentes no código de forma a influenciar as decisões finais.
Já no caso da regulação orientada por dados, os algoritmos podem ser treinados em dados que contêm preconceitos ou desigualdades, absorvendo os padrões dos dados de treinamento e usando esses padrões para tomar novas decisões ou formular novos entendimentos.
Se um algoritmo de contratação for treinado com um conjunto de dados que contém uma proporção muito maior de homens do que mulheres, o algoritmo pode aprender a favorecer os candidatos de sexo masculino. A falta de diversidade nos dados de treinamento também pode levar a uma exclusão sistemática de certos grupos sociais.
Como observou Ferguson (2017) ao analisar o uso do processamento de dados nos departamentos de polícia dos Estados Unidos, se os dados históricos refletirem preconceitos ou práticas discriminatórias, os algoritmos podem perpetuar essas práticas e excluir grupos sociais específicos do policiamento adequado e da justiça criminal.
Outro desafio da regulação pela tecnologia é a falta de transparência dos algoritmos. O’Neil (2017) afirma que a falta de explicabilidade dos algoritmos os tornam problemáticos ao dificultar a avaliação de como estão sendo usados e quais as consequências de suas decisões. Se não é possível saber como um algoritmo toma uma decisão, não é possível avaliar se esta é justa ou não.
Kearns e Roth (2019) também aduzem que essa falta de transparência pode levar a uma falta de confiança nos algoritmos. Se as pessoas não entendem como os algoritmos funcionam e como eles chegam às suas conclusões, é menos provável que confiem neles. Isso pode ser especialmente problemático em determinadas áreas, pois o questionamento no funcionamento dos algoritmos pode levar as pessoas a evitar tratamentos ou diagnósticos na área da saúde, ou até mesmo a questionar processos democráticos eleitorais auditados por algoritmos.
Os algoritmos têm sido automatizados para decisões desde a avaliação de crédito até a contratação em um emprego. São muitas decisões que podem alterar significativamente a vida das pessoas e que, até o momento, são bastante obscuras. Desse modo, é urgente a necessidade de obter um grau de transparência nesse processo que dê à sociedade a segurança de que todos estão sendo avaliados de maneira ética, justa e imparcial.
Quanto à responsabilidade algorítmica, existe uma lacuna interpretativa entre o direito e a tecnologia que não deixa claro quem é responsável pelas decisões tomadas pelos algoritmos. Os algoritmos podem ser altamente complexos e envolver uma variedade de processos, o que pode tornar difícil determinar quem é responsável por decisões específicas.
Eubanks (2018) enfatiza que essa questão é especialmente complexa e problemática, pois nos casos de regulação orientada por código, por exemplo, as pessoas que projetam o código não influenciam diretamente em suas decisões. Além disso, se os dados usados para treinamento desses algoritmos estão contaminados em termos de preconceitos e discriminação, qual seria então o grau de responsabilidade de quem coletou os dados e aplicou no algoritmo? Ou de quem apenas estruturou o código?
Essas são questões ainda sem qualquer resposta definitiva, mas que precisam urgentemente serem refletidas à luz dos avanços tecnológicos e da proteção jurídica tutelada pelo direito. De todo modo, a tecnologia continua vinculada à presença humana, nem que de modo a delegar ou transferir a máquinas a capacidade de decidir (FRAZÃO 2017).
Conclusão
Conforme abordado no âmbito deste trabalho, a regulação pela tecnologia está inserida em um sistema complexo, imprevisível e sujeito a mudanças não-lineares, o que pode levar (e tem levado) a consequências imprevistas e indesejadas, enfrentando desafios devido à natureza dinâmica das mudanças tecnológicas.
Há a crescente necessidade de criação de mecanismos institucionais eficazes para controlar o amplo alcance de ameaças, riscos e impactos adversos que os algoritmos podem causar da sociedade e na vida individual. Nesse sentido, Ulbricht e Yeung (2022) consideram que a regulação estatal é uma opção mais eficaz do que a autorregulação, pois oferece garantias e mecanismos regulatórios baseados no poder coercitivo estatal.
É importante evitar uma visão simplista de que a inovação tecnológica ou necessariamente a melhor forma de promover avanços na sociedade. Em verdade, é necessário que se pense de forma criativa e adaptativa sobre como a estrutura das organizações, processos políticos e sociais podem ser melhorados, e como a tecnologia pode contribuir para esse avanço (MEDINA, 2015).
De fato, a tecnologia proporciona avanços científicos e sociais significativos, que são capazes de mudar a vida de uma pessoa ou de toda uma sociedade. Por outro lado, à medida que o avanço tecnológico fornece novas possibilidades de melhoria, também apresenta novos riscos aos direitos tutelados pelo Estado. É preciso, portanto, encontrar o equilíbrio entre inovação tecnológica e proteção a garantias e direitos individuais e coletivos.
Além do mais, conforme aponta Lessig, é preciso observar até que ponto os criadores de código têm um compromisso com a sociedade, e até que ponto sua maior motivação é agradar outros interessados, como acionistas e empresas privadas.
Deve-se, também, levar em consideração o contexto de criação e desenvolvimento das tecnologias, para que os humanos se mantenham no controle final das tecnologias. Ao pensar em regulação por tecnologias, pensa-se em humanos sendo substituídos por máquinas, entretanto, as máquinas muitas vezes são reguladoras ineficazes, especialmente em ambientes complexos.
Enquanto problemas mais simples podem ser solucionados por meio de códigos binários, questões mais complexas ou que envolvem atividades no mundo real geralmente precisam de regulamentação por meio da lei. Portanto, é essencial a busca pelo equilíbrio entre automação e controle humano, pensando, além da inovação por si mesma, nas implicações sociais e políticas da utilização de novas tecnologias.
Referências bibliográficas
BEER, David. The social power of algorithms. Information, Communication & Society, v. 20,
n. 1, p. 1-13, 2017.
BURRELL, Jenna; FOURCADE, Marion. The society of algorithms. Annual Review of Sociology, v. 47, p. 213-237, 2021.
DAHLBERG, Lincoln. Cyber-libertarianism 2.0: A discourse theory/critical political economy examination. Cultural politics, v. 6, n. 3, p. 331-356, 2010.
DE FILIPPI, Primavera; HASSAN, Samer. Blockchain Technology as a Regulatory Technology: From Code is Law to Law is Code. De Filippi, P. & Hassan, S.(2016). Blockchain Technology as a Regulatory Technology: From Code is Law to Law is Code. First Monday, v. 21, n. 12, 2016.
FRAZÃO, Ana. Premissas para a reflexão sobre a regulação da tecnologia: Para que deve servir a regulação da tecnologia? Disponível em: <https://www.jota.info/opiniao-e- analise/colunas/constituicao-empresa-e-mercado/premissas-para-a-reflexao-sobre-a- regulacao-da-tecnologia-16112017>.
HILDEBRANDT, Mireille. Algorithmic regulation and the rule of law. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences,
v. 376, n. 2128, p. 20170355, 2018.
HILDEBRANDT, Mireille. Law as Information in the Era of Data‐Driven Agency. The Modern Law Review, v. 79, n. 1, p. 1-30, 2016.
LATOUR, Bruno. Jamais fomos modernos. Editora 34, 1994. LESSIG, L. Code is law. Harvard magazine, 2000.
MEDINA, Eden. Rethinking algorithmic regulation. Kybernetes, v. 44, n. 6/7, p. 1005-1019, 2015.
OSTERCAMP, Pierre. From ‘Code is Law’to ‘Code and Law’: Polycentric Co-Regulation in Decentralised Finance (DeFi). Available at SSRN 4134259, 2021.
PASQUALE, Frank. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.
REIDENBERG, Joel R. Lex informatica: The formulation of information policy rules through technology. Tex. L. Rev., v. 76, p. 553, 1997.
ULBRICHT, Lena; YEUNG, Karen. Algorithmic regulation: A maturing concept for investigating regulation of and through algorithms. Regulation & Governance, v. 16, n. 1, p. 3-22, 2022.
YEUNG, Karen. Algorithmic regulation: A critical interrogation. Regulation & Governance,
v. 12, n. 4, p. 505-523, 2018.