WebAdvocacy

Remédios concorrenciais na Economia Digital

Fernando de Magalhães Furlan

Jurisdições antitruste ao redor do mundo têm se debruçado sobre os mercados digitais e os desafios trazidos pelas rupturas tecnológicas e mercadológicas.

As primeiras iniciativas legislativo-regulatórias adotadas, como na União Europeia e no Reino Unido, privilegiam um sistema híbrido, conjugando instrumentos típicos do controle antitruste prévio ou ex ante, com ferramentas características do controle posterior ou ex post. A esse sistema híbrido chamamos de “controle antitruste simultâneo”, em que as autoridades da concorrência mantêm um âmbito oficial de diálogo constante com os grandes operadores da economia digital, a fim de que possam acompanhar, esclarecer e, eventualmente, remediar preocupações concorrências nesses espaços cibernéticos.

Estudos sustentam, de maneira convergente, que existem aspectos econômicos específicos dos mercados digitais que favorecem elevados níveis de concentração. Entre eles:

  • economias de escala e de escopo relevantes, que, potencialmente podem incentivar comportamentos anticoncorrenciais em relação aos utilizadores empresariais a jusante ou a montante;
  • subsídios cruzados, especialmente quanto a receitas publicitárias que permitem oferecer serviços gratuitos a usuários de outros lados comerciais da plataforma;
  • coleta e utilização de dados dos utilizadores, isto é, as plataformas utilizam os dados como insumo essencial, criando uma “economia dinâmica de escala”, uma vez que empresas com mais dados melhoram os seus produtos a custos mais baixos do que outras (menores). Isto pode caracterizar potencial barreira à entrada de novos competidores;
  • (custos de mudança (switching costs): algumas plataformas podem gerar altos custos para os usuários mudarem de provedor de serviço, como configurar um novo perfil, enviar novos conteúdos ou criar nova comunidade de seguidores;
  • externalidades de rede: a utilidade de uma tecnologia ou serviço cresce à medida que aumenta o seu número de usuários. Os efeitos de bloqueio (lock-in) podem dificultar a substituição de uma plataforma dominante, mesmo que exista uma alternativa superior disponível;
  • competição “o vencedor leva tudo” (“winner takes all”) ou “o vencedor leva a maior parte” (“winner takes most”): o primeiro a entrar num mercado pode tornar-se forte tão rapidamente que deixa os participantes posteriores em desvantagem;
  • estratégias de auto favorecimento (self-preferencing) de produtos e serviços oferecidos pelo próprio grupo econômico da plataforma, para excluir seus rivais, tais como: mostrar classificações de pesquisa online com seus resultados primeiro, distribuição “desigual” de lojas de aplicativos e imposição de dificuldades à interoperabilidade, isto é, quando uma plataforma dominante restringe a capacidade dos concorrentes de interoperar com a sua plataforma ou acessar informações importantes, como dados, APIs ou lojas de aplicativos (barreiras à entrada);
  • as plataformas digitais também podem dar um novo significado aos comportamentos abusivos tradicionais, como práticas de exclusividade e vendas casadas. Os exemplos incluem a pré-instalação de aplicativos da empresa em sistemas operacionais móveis, a imposição de serviços conjuntos de mídia social e anúncios de comércio eletrônico.

Autoridades de defesa da concorrência mundo afora, inclusive no Brasil, têm defendido a adoção do modelo de controle prévio (ex ante) para os mercados digitais, além da adoção de normas específicas e preventivas para atender às peculiaridades da economia digital.

Exemplos de inciativas em jurisdições tradicionais nesse sentido são o Reino Unido (2023), a Alemanha (2021), a Austrália (2021), a África do Sul (2023), o Japão (2021) e o Canadá (2023). A ideia é adotar um quadro regulamentar flexível e adaptável, um modelo que se ajusta de forma dinâmica e permite um acompanhamento contínuo, mantendo o controle e a autonomia sobre a evolução das normas aplicáveis aos mercados digitais.

Limitações de um controle posterior (ex post)

O controle ex post da conduta, ainda que potencialmente, anticoncorrencial não é considerado adequado para os mercados digitais, quando considerado sozinho. Tem se considerado mais adequado, não somente a aplicação de ambos, o controle prévio (via atos de concentração econômica) e o controle posterior (via investigação de condutas); mas algo novo: um controle simultâneo da operação das grandes plataformas digitais.

Mesmo que a Lei de Defesa da Concorrência brasileira seja considerada moderna, especialmente quando contempla formas de intervenção mais flexíveis, como medidas preventivas, que inclusive têm sido utilizadas em casos envolvendo aplicativos digitais (iFood[1] e Gympass[2]), ou a celebração de acordos de cessação de conduta (TCC), não é suficiente e adequado enfrentar investigações, que podem durar anos e exigir a estrita observância dos direitos processuais, num contexto contraditório, que pode prolongar o processo de tomada de decisão para remediar a conduta anticompetitiva.

O desenho de soluções comportamentais ou estruturais eficazes é um desafio, uma vez que as condições de mercado tendem a mudar substancialmente, além de envolver questões como acesso a dados, interoperabilidade e portabilidade, que são difíceis de controlar.

Nos casos Google Shopping[3], Google AdWords[4] e Google Scraping[5], por exemplo, houve longos debates sobre os padrões de prova e a presunção de regimes de ilegalidade necessários para demonstrar os efeitos anticompetitivos das práticas analisadas. Isto acabou por determinar o arquivamento do processo.

Os conceitos de “mercado relevante”, “posição dominante” e “fechamento de mercado” enfrentam desafios adicionais em modelos de negócios baseados em dados, onde os efeitos anticoncorrenciais não relacionados com o preço permitem a configuração de situações de exclusão (por exemplo: exploração abusiva de dados, imposição de restrições à interoperabilidade, cópia de conteúdos em mercados de comparação de preços e relações de favoritismo em mercados de pesquisa etc.).

A definição de mercado relevante, focada na substitutibilidade e na participação de mercado, não considera a concorrência dentro do ecossistema, onde a competição por receitas emergentes de serviços complementares é mais relevante do que a rivalidade horizontal.

As estratégias utilizadas pelas plataformas digitais dominantes manifestam-se de formas que tornam difícil classificá-las como violações antitruste conhecidas, como “recusa de contratar”, “vinculação” ou “discriminação”.

Objetivos e fundamentos do controle prévio (ex ante)

O controle ex ante das plataformas e aplicativos digitais deve abordar as disfunções nos ecossistemas digitais como falhas funcionais e distributivas que afetam a geração e apropriação de valor, com peculiaridades em relação às falhas tradicionais de mercado[6].

A ideia seria adotar um modelo de diálogo contínuo, para orientar e garantir o cumprimento dos padrões de concorrência, reduzindo a necessidade de intervenções punitivas e permitindo uma aplicação mais ágil e adaptativa da lei, ajustando-se rapidamente às inovações do mercado.

Da mesma forma, esse modelo promoveria uma cultura de compliance, garantindo o pilar da prevenção voluntária de condutas, importante em qualquer jurisdição antitruste.

Assim, a intervenção antitruste “simultânea” promoveria a concorrência por meio da garantia pari passu da redução de barreiras à entrada, da contestabilidade dos mercados, da inovação (incremental, disruptiva ou radical) e o empreendedorismo (livre iniciativa).

A necessidade de um controle, não somente prévio, mas simultâneo, capaz de prevenir e impor imediatamente obrigações de proteção da concorrência aos operadores em mercados digitais, aliás, já foi objeto de legislação (hard law) ou regulamentação (soft law) em Jurisdições tradicionais.

A União Europeia aprovou no Parlamento Europeu o Digital Markets Act – DMA, lei para tornar os mercados no setor digital mais justos e contestáveis, estabelecendo um conjunto de critérios objetivos claramente definidos para identificar potenciais riscos à concorrência.

No Reino Unido, o Parlamento também aprovou o Digital Markets, Competition and Consumers Act – DMCC Act, ou Lei de Mercados Digitais, Concorrência e Consumidores, de 2024. Um projeto de lei apresentado pelo governo, incialmente à Câmara dos Comuns. O objetivo é a regulamentação da concorrência em mercados digitais, alterando a Lei da Concorrência de 1998 e a Lei Empresarial de 2002.  A nova lei também traz disposições relacionadas à proteção dos direitos do consumidor em mercados digitais.

Na Alemanha, o novo artigo 19-A da Lei Alemã da Concorrência, também com aprovação legislativa, a chamada “Lex GAFA” (iniciais de Google, Apple, Facebook e Amazon), do início de 2021, aborda “empreendimentos de suma importância para a concorrência em todos os mercados” e permite que o Bundeskartellamt, como autoridade da concorrência alemã, impeça certos comportamentos abusivos de detentores de grande poder de mercado. No entanto, procedimentos para declarar a Apple, o Facebook (Meta) e a Amazon como “empreendimentos de suma importância” (undertakings of paramount significance) ainda estão em andamento[7]. Embora, após quase um ano de avaliação, o Bundeskartellamt tenha declarado o Google (Alphabet) como um empreendimento de suma importância[8], medidas concretas ainda não foram tomadas.

O Senado dos Estados Unidos da América atualmente discute um projeto de lei conhecido como American Innovation and Choice Online Act (“AICO”)[9]. Tal proposição legislativa proíbe certas grandes plataformas on-line de se envolverem em atos específicos, incluindo dar preferência aos seus próprios produtos na plataforma, limitar injustamente a disponibilidade de produtos concorrentes de outra empresa ou discriminar na aplicação ou execução dos termos de serviço da plataforma entre usuários em situação semelhante.

Além disso, segundo a proposta em análise no Senado estadunidense, uma plataforma não pode restringir ou impedir materialmente a capacidade de um usuário comercial concorrente acessar ou interoperar com a mesma plataforma, sistema operacional ou recursos de hardware ou software. O projeto de lei também restringe a instalação ou desinstalação de software, funcionalidade de pesquisa ou classificação e retaliação por contato com a polícia em relação a violações reais ou potenciais da lei.

O que parece incontestável é a necessidade de adaptar e melhorar as leis de concorrência, as suas ferramentas e o desenho institucional das autoridades para serem capazes de fazer frente à dinâmica e inovadora economia digital e desempenhar o papel de prevenir e reprimir o abuso do poder econômico nesses mercados.

Conclusão

O “regulador” antitruste pode e deve adaptar o seu ferramental prático e teórico na medida em que novos desafios da realidade dinâmica dos mercados, especialmente os inovadores, se apresentam.

No contexto brasileiro, mostramos brevemente que isso vem sendo feito ao longo do tempo, com a adoção de soluções criativas, contudo realistas e fundamentadas, no direito e na economia, capazes de fazer frente à necessidade de implantação de providências para prevenir e remediar condutas potencialmente danosas.

Não há que se falar em “reorientação do direito da concorrência” em razão dos desafios postos pela Economia Digital. No máximo, estamos diante de uma adaptação. Os conceitos do direito da concorrência também continuam intocados, talvez merecendo um novo verniz, uma nova tonalidade.


[1] Disponível em: https://sei.cade.gov.br/sei/modulos/pesquisa/md_pesq_processo_exibir.php?0c62g277GvPsZDAxAO1tMiVcL9FcFMR5UuJ6rLqPEJuTUu08mg6wxLt0JzWxCor9mNcMYP8UAjTVP9dxRfPBcaPonKpemYl591TZDVz41cKkeMG3znSccU-isTZDv-qj. Acesso em: 05/07/2024.

[2] Processo Administrativo nº 08700.004136/2020-65. Disponível em: https://sei.cade.gov.br/sei/modulos/pesquisa/md_pesq_processo_exibir.php?0c62g277GvPsZDAxAO1tMiVcL9FcFMR5UuJ6rLqPEJuTUu08mg6wxLt0JzWxCor9mNcMYP8UAjTVP9dxRfPBcSAlNG3BEuxBuDxuaTl21JtluCsnT1rW6o6w8bRweD-x. Acesso em: 05/09/2024.

[3] Processo Administrativo nº 08012.010483/2011-94. Disponível em: https://sei.cade.gov.br/sei/modulos/pesquisa/md_pesq_documento_consulta_externa.php?DZ2uWeaYicbuRZEFhBt-n3BfPLlu9u7akQAh8mpB9yOb0rdAAnkZ36Rru6H33qbFO51_fjuVWb1uid6m5S5BxJ8gFyW8xprjnuylPdYbaX3VDhhG3SAtGWLJPIqjsEDX. Acesso em: 05/09/2024.

[4] Processo Administrativo nº 08700.005694/2013-19. Disponível em: https://sei.cade.gov.br/sei/modulos/pesquisa/md_pesq_processo_exibir.php?2pXoYgv29q86Rn-fAe4ZUaXIR3v7-gVxEWL1JeB-RtUgqOwvr6Zlwydl0IhRNSr2Q22lByVKByYDYwsa13_Jxjwy0jsF2VUK9nLLMn4AapgzHPEyXU3WqUFUJvQc-tbB. Acesso em: 05/09/2024.

[5] Processo Administrativo nº 08700.009082/2013-03. Disponível em: https://sei.cade.gov.br/sei/modulos/pesquisa/md_pesq_processo_exibir.php?2pXoYgv29q86Rn-fAe4ZUaXIR3v7-gVxEWL1JeB-RtUgqOwvr6Zlwydl0IhRNSr2Q22lByVKByYDYwsa13_JxuPKafcwvOhoHGvTOhF6VN9yQ1Q84rME0Sb3aYKzWyP2. Acesso em: 05/09/2024.

[6] Informação assimétrica, concentração de mercado, externalidades etc.

[7] Bauermeister, Tabea.  Section 19a GWB as the German “Lex GAFA” – lighthouse project or superfluous national solo run?   Working Paper Series No. 23/22. Jean Monnet Network on EU Law Enforcement Working Paper Series, p.2. Disponível em: chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://jmn-eulen.nl/wp-content/uploads/sites/575/2022/05/WP-Series-No.-23-22-Section-19a-GWB-as-the-German-Lex-GAFA-Bauermeister.pdf. Acesso em: 06/09/2024.

[8] Idem, p.2.  Alphabet Inc. Google Germany GmbH (2021) B7-61/21 (BKartA).

[9] Disponível em: https://www.congress.gov/bill/117th-congress/senate-bill/2992/text. Acesso em: 18/09/2024.


Fernando de Magalhães Furlan. Antigo Secretario-Executivo do Ministerio do Desenvolvi mento, Industria e Comercio Exterior (MDIC) e assessor especial da CAMEX. Foi presidente do Conselho de Administracao do BNDES e da BNDESPAR. Foi presidente, conselheiro e procurador-geral do CADE. Foi também diretor do Departamento de Defesa Comercial (DECOM) e chefe de gabinete do ministro do Desenvolvimento, Indústria e Comércio Exterior. Foi membro do Conselho de Administração da FINAME/BNDES. Atualmente e membro do grupo de especialistas do sistema de solução de controvérsias do MERCOSUL e consultor ad hoc de projetos de defesa da concorrência das Nações Unidas (UNCTAD). É professor de direito em Brasília e atua, como professor ou pesquisador, em universidades e institutos no Brasil e no exterior. É consultor externo ou membro não-governamental de organizações e institutos brasileiros e estrangeiros e consultorias. Graduado em Administração pela UDESC/ESAG e em Direito pela UnB, tem mestrado e doutorado pela Universidade de Paris I (Panthéon-Sorbonne), com pós-doutorado pela Universidade de Macau, China.


A concorrência pelo mundo nesta quinta-feira

A concorrência pelo mundo desta quinta-feira traz três notícias em destaque: (i) a autoridade francesa da concorrência (Autorité de la Concurrence) retomou de ofício a análise das possíveis práticas anticompetitivas no setor de tv por assinatura e na aquisição e distribuição de obras cinematográficas; (ii) denúncia de acordo anticoncorrencial ocorrido em Departamentos Ultramarinos franceses sobre os mercados de tratamento e de transporte de resíduos hospitalares com riscos infecciosos por parte da autoridade francesa da concorrência (Autorité de la Concurrence); e (iii) formação de grupo de estudo para promover a concorrência no mercado de aplicativos em smartphones por parte da Japan Fair Trade Commission – JFTC.

A criação do grupo de estudos por parte da JFTC representa a continuação do trabalho de regulação da economia digital no Japão e tem como suporte a recente publicação da lei para promover a concorrência no mercado de softwares para smartphones no Japão, lei esta que possui características similares àquelas previstas no Digital Market Act – DMA da União Europeia e visa, primordialmente, impedir que haja barreiras contra a instalação de lojas de aplicativos alternativas, sistemas alternativos de pagamento no aplicativo, acordos anti-direção e mecanismos de navegador alternativos.

Acesse o Clipping da Concorrência – 03.10.2024 para ter acesso a íntegra das notícias.


Fonte: WebAdvocacy – Direito e Economia

Aquisições no Setor Automotivo são Analisadas pelo CADE

O Conselho Administrativo de Defesa Econômica (CADE) recebeu dois novos atos de concentração referentes a operações de aquisição de ativos no setor automotivo. As operações foram notificadas por grandes empresas atuantes no mercado global de peças para veículos pesados e estão agora sob análise da autoridade concorrencial brasileira.

O primeiro ato de concentração, registrado sob o número 08700.007317/2024-77, envolve a empresa dinamarquesa DSV A/S e a alemã Schenker Aktiengesellschaft. A operação prevê a aquisição de ativos industriais ligados à produção de peças automotivas, especificamente conjuntos manufaturados e remanufaturados de motor e câmbio para veículos pesados.

O segundo ato de concentração, nº 08700.007316/2024-22, envolve a IBBA Indústria Brasileira de Bombas Automotivas S/A e a Mercedes-Benz do Brasil Ltda. Nesta operação, a IBBA adquiriu uma unidade industrial para o desenvolvimento de peças similares às citadas no primeiro caso, também destinadas a veículos pesados.

Ambas as operações estão sendo examinadas pelo CADE quanto aos seus possíveis impactos no mercado automotivo, especialmente no que se refere à concorrência e à concentração de mercado no setor.


Fonte: WebAdvocacy – Direito e Economia

A concorrência pelo mundo nesta quarta-feira

A Concorrência pelo Mundo desta quarta-feira apresenta como destaques a abertura da consulta da Japan Fair Trade Commission – JFTC para obter informações e comentários a respeito dos problemas existentes entre a inteligência artificial generativa e a concorrência, o discurso de Martin Coleman no King’s College London a respeito relação entre o controle de estruturas e política pública e o movimento de fusões e aquisições no Brasil e no mundo.

A JFTC disponibilizou um Texto para Discussão (Generative AI and Competition), cujo objetivo é o de apresentar as questões potenciais que envolvem a IA generativa e a competição para gerar reflexão e comentários do mercado como um todo, visto que a IA generativa pode gerar restrição de acesso e exclusão de concorrentes.

Em termos de controle de concentrações no Brasil, vale destacar o ingresso de duas operações na Superintendência-Geral do CADE – SG: AC nº 08700.007317/2024-77 (Requerentes: DSV A/S e Schenker Aktiengesellschaft) e AC nº 08700.007316/2024-22 (Requerentes: IBBA Industria Brasileira de Bombas Automotivas S/A e Mercedes Benz do Brasil Ltda.). Ambas as operações estão sendo analisadas por rito sumário.

No mundo, os destaques ficam por conta da análise da operação SHS/NEGOCIO DE IMAGENOLOGÍA MEDIANTE RADIOLIGANDOS DE NOVARTIS por parte da CNMC (autoridade espanhola da concorrência) e da análise da operação de aquisição das empresas Calao 59, Calao 119, Calao 167 e Calao 202 pela empresa Sofiben com a empresa ITM Entreprises por parte da Autorité de la Concurrence (autoridade francesa de defesa da concorrência).

Acesse o Clipping da Concorrência – 02.10.2024 e a Base de Atos de Concentração para ter acesso a integra das notícias e das operações.


Fonte: WebAdvocacy – Direito e Economia

A regulação pela tecnologia sob a ótica da economia da complexidade

Apresentação

Os Textos para Discussão da WebAdvocacy é uma série de textos técnico-científicos nas áreas de direito e economia, que visa a ampliar a discussão acadêmica em torno dos temas de defesa da concorrência, regulação econômica, comércio internacional, direito econômico, direito tributário, entre outros.

Os textos para discussão da WebAdvocacy estão disponíveis para leitura na plataforma no link: Textos para Discussão.

Corpo editorial

Editor:

Elvino de Carvalho Mendonça

Conselho editorial:

Amanda Flávio de Oliveira – Doutora em direito

Eduardo Molan Gaban – Doutor em direito

Elvino de Carvalho Mendonça – Doutor em economia

Fernanda Manzano Sayeg – Doutora em direito

Fernando de Magalhães Furlan – Doutor em direito

Katia Rocha – Doutora em Engenharia de Produção/Finanças

Luiz Alberto Esteves – Doutor em economia

Márcio de Oliveira Júnior – Doutor em economia

Marco Aurélio Bittencourt – Doutor em economia

Marcos André Mattos de Lima – Mestre em economia 

Rachel Pinheiro de Andrade Mendonça – Doutora em direito

Vanessa Vilela Berbel – Doutora em Direito

Ficha catalográfica

As opiniões emitidas nesta publicação são de exclusiva e inteira responsabilidade dos autores, não exprimindo, necessariamente, o ponto de vista da WebAdvocacy – Direito e Economia.

É permitida a reprodução deste texto e dos dados nele contidos, desde que citada a fonte. Reproduções para fins comerciais são proibidas.


A regulação pela tecnologia sob a ótica da economia da complexidade

Pedro Victhor Gomes Lacerda

Resumo

Nos últimos anos, tem havido um crescente interesse na regulação de tecnologias emergentes, como a inteligência artificial e a blockchain. No entanto, a regulação por meio da tecnologia apresenta desafios únicos, uma vez que essas tecnologias são complexas e dinâmicas, com efeitos imprevisíveis e difíceis de avaliar. A economia da complexidade oferece uma estrutura teórica para entender esses desafios e explorar as possibilidades e limites da regulação pela tecnologia. Este artigo tem como objetivo discutir as implicações da economia da complexidade para a regulação pela tecnologia e destacar as questões críticas que precisam ser abordadas para alcançar uma regulação eficaz e equitativa. Nessa perspectiva, será abordado o papel da regulação na tecnologia, bem como as implicações da regulação pela tecnologia para a governança democrática, a justiça social e a responsabilidade. Por fim, serão apresentadas algumas perspectivas futuras para a regulação pela tecnologia sob a ótica da economia da complexidade.

Introdução

A crescente utilização dos algoritmos em todos os aspectos da nossa vida. A evolução da tecnologia, a popularização de tecnologias pessoais como os computadores e os celulares alinhados com a popularização e o “fácil acesso” à internet colocaram a internet no centro das discussões de várias áreas acadêmicas. Reflexo desse fenômeno, as empresas de tecnologia hoje são posicionadas como as mais influentes do mundo, sendo protagonistas nas discussões que envolvem tecnologia e a proteção de direitos pessoais (ULBRICHT; YEUNG, 2022).

Os governos, universidades e o setor privado vêm fazendo grandes investimentos para não apenas para coletar e armazenar dados, mas também para descobrir maneiras de extrair novos conhecimentos dos crescentes bancos de dados (MEDINA, 2015).

A cultura da alta tecnologia é tomada por um entusiasmo – também movido por interesses capitalistas – que celebra a tecnologia como uma solução mágica para os problemas sociais, ao mesmo tempo em que abraça valores como a individualidade, responsabilidade social e superioridade do poder inovativo do setor privado frente ao poder estatal.

Apesar do entusiasmo com as infinitas possibilidades oferecidas pelo avanço da tecnologia, o crescimento desorganizado das inovações tecnológicas pode trazer riscos à direitos até então bem definidos e protegidos pelo direito.

O avanço da tecnologia e sua relação com a proteção de direitos pessoais e coletivos exige, portanto, uma revisitação às categorias jurídicas e uma adaptação da regulação existente (FRAZÃO, 2017).

Os primórdios da regulação pela tecnologia

Em meados da década de 1990, em um contexto de euforia pós-comunista, com a consolidação do poder político dos Estados Unidos, surgiu no ocidente um novo tipo de sociedade que, ao contrário da experiência comunista recém fracassada, prometia liberdade irrestrita e um ambiente completamente livre das amarras estatais.

O ciberespaço surgiu de uma experiência militar dos Estados Unidos, e prometia um tipo de sociedade que o espaço real nunca permitiria, onde não só as leis do mundo físico não se aplicariam no ambiente virtual, mas, na visão do movimento libertário, o governo por uma questão de legitimidade não poderia regular o ciberespaço.

Lessig (2000) afirma que a mão invisível do ciberespaço – ou seja, o processo espontâneo de desenvolvimento e regulação do ambiente digital – está construindo uma arquitetura exatamente oposta à que existia em sua concepção inicial. Antes vista como um ambiente de liberdade e privacidade, hoje a arquitetura da internet é usada para coletar dados, monitorar comportamentos e controlar informações (PASQUALE, 2015).

Reindeberg (1997) entende que o código atua como uma restrição ao comportamento humano no ciberespaço, cunhando o conceito de “Lex Informatica” como o conjunto de regras para fluxos de informação impostas pela tecnologia e redes de comunicação. De acordo com esse conceito, o código é tratado como lei (code is law), ou seja, a arquitetura do código é tratada como o meio mais eficaz de regulação do comportamento.

Basicamente, duas correntes teóricas divergem acerca do tratamento regulatório da regulação do ciberespaço. O ciberlibertarianismo argumenta que, uma vez que as leis do mundo físico estão sujeitas à territorialidade e jurisdição, não seria possível aplicá-las ao ambiente transfronteiriço do mundo virtual. Não obstante, ainda defendem que haveria uma ilegitimidade legislativa, visto que, sendo o ciberespaço um ambiente único e integrado, não haveria

autoridade ou Estado com legitimidade para impor restrições ao mundo digital. Nesse sentindo, defendem que a regulação digital deve ocorrer por outros meios que não pelos dispositivos jurídicos tradicionais do direito.

O ciberpaternalismo, por sua vez, afirma que as atividades desenvolvidas na internet se assemelham a atividades transnacionais que, se acontecessem no mundo físico, seriam reguladas. Assim, buscam integrar a arquitetura da internet ao contexto fático e jurídico do mundo físico, de modo que as ações praticadas no ciberespaço sejam amparadas pelas mesmas normas do mundo físico, porém com o auxílio de tecnologias adaptativas para o ambiente digital.

Entretanto, Ostercamp (2021) afirma que ambas as correntes apresentam fragilidades, pois assumem implicitamente que o código é capaz de exercer o controle perfeito do ambiente digital, seja por meio da autorregulação, seja por meio de uma autoridade estatal. O autor afirma que o código pode ser contornado, e que o controle imperfeito exercido pelo código deixa lacunas regulatórias que podem ser preenchidas por outros fatores, como a influência das leis, mercados ou normas sociais.

De Fillipi e Hassan (2016), ao tratar da regulação no contexto do blockchain, sugerem uma transição do code is law para o code as law, onde o código pode ser usado para implementar regras específicas no ambiente tecnológico. Entretanto, tal medida também esbarra em limitações provenientes da natureza incompatível do direito com o código. A linguagem utilizada pelo código é específica e literal, enquanto a linguagem jurídica possui uma textura aberta e generalizada, para que o dispositivo legal possa se subsumir às situações da vida cotidiana com maior facilidade, deixando a cargo do julgador a aplicação da norma em cada caso concreto.

Converter a linguagem natural do direito para a linguagem binária do código é um desafio para os juristas e programadores. Apesar de haver exemplos de aplicação desse tipo técnica, como os smart contracts, à medida que o cenário fático se torna mais complexo, também é mais desafiador programar normas que se adaptem a cenários mais complexos e com mais variáveis.

Para além das teorias de code is law e code as law, Ostercamp sugere uma descrição alternativa conhecida como code and law, onde defende que a regulação do ciberespaço não é puramente arquitetônica, mas um híbrido de arquitetura e processo social. Para além da

arquitetura do código, algumas funções regulatórias são determinadas por seres humanos por meio de leis e hierarquias.

Segundo Hidelbrandt (2016), em razão da interdependência entre direito e tecnologia, é fundamental que juristas e cientistas da computação se comuniquem e colaborem de maneira mais cooperativa para que compreendam as perspectivas e necessidades uns dos outros. Tal medida, contudo, envolve uma abordagem interdisciplinar e a atuação de vários outros agentes públicos e privados que têm interesses e objetivos diversos em pauta.

Regulação pela tecnologia

A regulação pela tecnologia, denominada por Ulbricht e Yeung (2022) como “regulação algorítmica”, pode ser definida como as tentativas conscientes de gerenciar riscos ou alterar comportamentos para alcançar um objetivo “pré-especificado”. Essas tentativas ocorrem por meio de procedimentos codificados para solucionar um problema por meio da transformação de dados de entrada em um resultado desejado (YEUNG, 2018).

Esse conceito direciona sua atenção a analisar como os sistemas computacionais são projetados, configurados e implementados para atingir um propósito específico, bem como os impactos sociais causados por esses mecanismos. A dificuldade de compreender o algoritmo em sua totalidade pode levar a uma concepção equivocada do algoritmo como um processo isolado, ou uma falha em perceber como o poder pode ser exercido através da tecnologia (BEER, 2017).

A regulação algorítmica pode ser entendida como um processo que envolve essencialmente três componentes: (i) o estabelecimento de padrões; (ii) a coleta de informações; e (iii) a aplicação de padrões e modificações de comportamento. No primeiro nível, definem-se as normas e os critérios que devem ser atendidos pelo sistema algorítmico para atingir o objetivo determinado; no segundo nível, atua-se de forma reativa (detectando violações com base em dados históricos) ou preditiva (aplicando algoritmos de aprendizado para prever e interferir em comportamentos futuros); por fim, no último nível o sistema pode administrar uma sanção especificada automaticamente ou fornecer assistência a um tomador de decisões humano (YEUNG, 2018).

Hildebrandt (2018) divide a regulação algorítmica em duas: (i) code driven regulation, onde os algoritmos podem operar automaticamente e modificar o comportamento dos usuários

sem a necessidade de intervenção humana direta, e (ii) data driven regulation, onde os algoritmos preditivos usam dados para monitorar e prever comportamentos a fim de fornecer suporte ou aconselhamento de decisão.

Na regulação orientada por código (code driven regulation), o comportamento a ser regulado depende de uma série de condições “se isso” e ações correspondentes “então aquilo” (em inglês, “if this, then that”, ou IFTTT). Ou seja, se uma determinada condição for atendida, uma ação será tomada automaticamente sem a necessidade de intervenção humana. Segundo Hitelbrand, esse tipo de lógica é determinística e previsível, pois quem determina “isso” como condição do “aquilo” decide o output do sistema, que não tem qualquer discrição.

Tais decisões podem ser visualizadas como uma árvore onde, a depender da entrada, os caminhos serão traçados de maneiras diferentes e, consequentemente, a decisões diferentes e pré-determinadas. Entretanto, a regulação nesse contexto depende de como as normas (legais ou não) foram traduzidas para o código de computador.

Quanto à essa questão, Ostercamp (2021) afirma que, embora o código que integre a lei possa permitir a execução automática ex-ante, a generalidade do código e a reatividade das formas tradicionais do direito podem resultar no código ultrapassando o desenvolvimento do direito tradicional, levando ao surgimento cíclico de novas tecnologias que se diferenciam das restrições legais impostas.

Já na regulação orientada por dados (data-driven regulation), o código é informado pelos dados nos quais foi treinado em vez de ser informado por especialistas que traduziram as regras e as colocaram no código. Esse modelo de regulação utiliza técnicas como machine learning e análise de dados para monitorar, prever e influenciar o comportamento das pessoas e organizações.

A regulação orientada por código, como dito, pressupõe saídas pré-determinadas pelo programador, de acordo com a lógica IFTTT. Nesse sentido, é essencial que a estrutura do código que determina suas decisões finais a partir dos inputs gerados pelos usuários seja transparente para que os usuários entendam como as decisões são tomadas e como as regras são aplicadas.

Também é essencial que os usuários tenham a possibilidade de contestar decisões que consideram injustas ou equivocadas, o que só será possível a partir da obtenção de informações acerca do funcionamento do próprio código. No fim das contas, a regulação orientada por

código é um reflexo das decisões humanas automatizadas, de modo que o código não fala por si, mas apenas executa os comandos pré-determinados pelos desenvolvedores que, por sua vez, podem refletir seus próprios vieses e crenças no algoritmo.

Já a regulação orientada por dados, embora seja uma poderosa ferramenta para identificar tendências e padrões, também apresenta riscos significativos. Se os dados utilizados para alimentar o algoritmo não forem representativos ou não incluírem todas as variáveis relevantes, as decisões tomadas com base nesses dados podem ser parciais ou discriminatórias.

Em alguns casos, os algoritmos podem tomar decisões não compreensíveis para o humano. Isso ocorre porque tais decisões são baseadas em modelos matemáticos complexos que podem ser difíceis de compreender até mesmo para especialistas em dados, o que pode tornar a decisão algorítmica ocasionalmente “irrefutável”, não por sua lógica absoluta, mas pela dificuldade de destrinchar os passos que levaram à decisão.

O conjunto desses fatores compõe o processo de regulação algorítmica, onde os sistemas regulatórios são continuamente avaliados e ajustados para garantir a conformidade com os padrões estabelecidos. Entretanto, é preciso refletir sobre como os padrões são estabelecidos e quem é responsável por esse tipo de decisão, pois a depender de quem escolhe a tecnologia e os fins de sua utilização, tanto a estrutura social quanto estatal podem ser alteradas de acordo com a alocação de direitos e de recursos (FRAZÃO, 2017).

O poder social dos algoritmos

Para aprofundar como o algoritmo e seu processo de formação interagem com a sociedade, é preciso, primeiramente, definir como abordá-lo. Existem diversas formas de se tratar o assunto, assumindo o algoritmo como um conjunto de linhas de código, como objetos ou até mesmo como processos sociais.

De toda forma, não é possível separar o algoritmo do contexto social em que está inserido e constantemente aprimorado. Abordá-lo como um objeto puramente técnico que tem como objetivo racionalizar as tomadas de decisão humanas seria ignorar todo o contexto de seu desenvolvimento. Os algoritmos são modelados a partir de visões de mundo e com objetivos previamente definidos que certamente influenciam sua forma de comportamento e os processos de ajustes e recodificação a depender do resultado gerado (BEER, 2017).

Latour (1994), a partir de sua concepção da teoria ator-rede – um conjunto de atores humanos e não-humanos conectados a partir de relações de interdependência –, ajuda a entender como uma ampla variedade de atores (programadores, designers, usuários, dados, plataformas etc.) nesse contexto interagem para criar e moldar o funcionamento do algoritmo.

Portanto, o algoritmo não seria uma entidade autônoma e independente, mas o resultado da interação de pessoas e organizações que participam da sua criação e modificação. Os algoritmos, nessa perspectiva, não são construídos a partir de um conjunto objetivo de dados ou regras, mas sim moldados por interesses, visões de mundo e perspectiva dos atores envolvidos.

Burrell e Fourcade (2021) defendem a existência de uma nova classe na sociedade digitalizada, composta por um grupo formado essencialmente por desenvolvedores de software, CEOs de empresas de tecnologia, investidores e professores de ciência da computação e engenharia, a qual denominam “the coding elite”.

Essa elite tem como principal habilidade a capacidade de entender e criar códigos algorítmicos. A referida comunidade é altamente influente na sociedade digital e circula por diferentes posições de poder em startups, grandes empresas de tecnologia, laboratórios de pesquisa e desenvolvimento e salas de aula. Inclusive os autores definem como problemática a relação entre indústria e academia, tendo em vista que profissionais com papéis estratégicos em grandes indústrias também figuram no corpo docente das mais influentes universidades que contribuem para a criação do conhecimento tecnológico. Tal relação resulta em uma linha tênue entre o conhecimento científico e os interesses corporativos, visto que os precursores das teorias acadêmicas também são os executivos das grandes empresas de tecnologia. Desse modo, há de se questionar até que ponto as discussões acadêmicas não estariam sendo pautadas por interesses empresariais.

A elite do código expõe de forma clara uma segregação epistemológica crucial para entender a regulação algorítmica e o desenvolvimento dos processos tecnológicos: o grau de compreensão do código. Se somente os programadores e profissionais da tecnologia da informação são capazes de compreender a estrutura dos códigos que são utilizados em todos os âmbitos da vida cotidiana, estes se comunicam entre si em uma linguagem não acessível para o restante da sociedade, o que prejudica a forma do diálogo aberto da sociedade quanto aos paradigmas tecnológicos enfrentados atualmente.

Pasquale (2015) afirma que, em razão do contexto de seu desenvolvimento, os algoritmos se tornaram verdadeiras “caixas-pretas”, que dependem de processos computacionais sofisticados e são protegidos como segredos comerciais. Entretanto, esses algoritmos são capazes de exercer ou influenciar tomadas de decisão com consequências substanciais em diversas áreas da sociedade, o que demanda uma maior responsabilidade e, portanto, transparência por parte dos desenvolvedores desses algoritmos.

A abordagem sociológica da construção algorítmica mostra como a construção do código não é linear ou objetiva, mas movida por uma variedade de interesses, atores e contextos que tornam o desenvolvimento do código imprevisível. Nesse sentido, ao abordar a perspectiva econômica da regulação pela tecnologia, é necessário também recorrer à uma abordagem que não seja refém de mecanismos determinísticos ou absolutos, visto que o contexto da evolução tecnológica é formado por uma variedade de fatores e elementos.

A regulação pela tecnologia sob a ótica da economia da complexidade

O desenvolvimento tecnológico de maneira geral e a regulação pela tecnologia podem ter um impacto significativo na economia. Embora sejam nítidos os avanços proporcionados pela tecnologia, o seu mau uso pode trazer sérias consequências em termos de segurança, privacidade, concorrência etc.

Brian Arthur (2013) defende, sob a ótica da economia da complexidade, que o não- equilíbrio é o estado natural da economia, que está sempre aberta a reações. Uma das principais razões desse estado natural de desequilíbrio é a inovação tecnológica.

Arthur (2009) afirma que a economia é uma expressão de suas tecnologias. A economia, segundo o autor, é moldada e influenciada pelas tecnologias que são utilizadas nas atividades econômicas e sociais. As tecnologias moldam a estrutura econômica, enquanto a economia medeia a criação de novas tecnologias.

A economia, portanto, não seria simplesmente um recipiente para as atividades econômicas, mas uma ecologia complexa de tecnologias, decisões e atividades que estão continuamente se reformando e criando nichos de oportunidade para novas tecnologias emergirem. O caráter da economia muda à medida que novas tecnologias são introduzidas e novas oportunidades são criadas.

Os processos tecnológicos também estão ligados à determinismos advindos da economia neoclássica. Mirowski (2002) alerta sobre o surgimento de uma classe de economistas que acreditam que os computadores podem ser usados para criar modelos econômicos precisos e, portanto, prever o comportamento econômico futuro. De acordo com essa linha de pensamento, os economistas argumentam que a grande capacidade de processamento de dados e variáveis podem permitir a construção de modelos econômicos precisos como nunca visto antes.

Esse pensamento é criticado por Skidelski (2020), que afirma que, como os profissionais da tecnologia, economistas acreditam que, com dados e poder de processamento suficientes, podem “quebrar o código” do comportamento humano. Essa prática advém da redução das estruturas sociais à meras transações econômicas e do tratamento do homem como agente racional, ignorando ou reduzindo demasiadamente o impacto das relações sociais e de variáveis endógenas na análise econômica.

Essa crença, segundo Mirowski (2002), é influenciada pelo aumento da confiança na tecnologia e na ciência. Entretanto, é preciso agir com cautela, pois essa crença pode levar a uma confiança excessiva nos modelos econômicos e à negligência de fatores que não podem ser tão facilmente quantificados ou incorporados aos modelos.

O que esses economistas não levam em conta é que, conforme levantado por Burrell e Fourcade (2021), a elite do código utiliza-se de argumentos baseados em economia comportamental e psicologia social para justificar suas decisões, muitas vezes recorrendo a comparações entre tomadores de decisão humanos e ferramentas algorítmicas, mas em testes projetados para favorecer o código.

Apesar de parecerem argumentos cientificamente embasados e objetivos (o que, em tese, blindariam o próprio algoritmo de questionamentos), muitas vezes estes são estruturados de forma a favorecer os interesses técnicos. Ao comparar a eficiência algorítmica com a tomada de decisão humana, não se leva em consideração, por exemplo, que a tomada de decisão algorítmica também pode ser influenciada por preconceitos ou desigualdades originalmente pertencentes aos humanos e refletidas na criação do código.

O uso prático da matemática é um dos fatores que influenciam a utilização do argumento da objetividade do código. Assim como a linguagem matemática ocidental e sua suposta linguagem neutra e objetiva é utilizada como argumento basilar da economia mainstream, os

processos matemáticos por trás dos algoritmos são usados como justificativa para um output

preciso nas tomadas de decisão.

A visão mais aceita sobre as estruturas matemáticas é que estas são realizações racionais e científicas resultadas de um processo produção intelectual cumulativa, de onde surgiu a ciência moderna e, por consequência, realizações tecnológicas disruptivas. Entretanto, não se questiona se tais estruturas tem a capacidade de suprimir a consciência moral dos indivíduos como agentes livres e de valor para a sociedade. Ou seja, o fato de que as estruturas matemáticas são concebidas e implementadas sem levar em consideração as implicações sociais e éticas do comportamento humano pode ter consequências negativas na sociedade (DE CASTRO, 2019).

Ao fazer esse tipo de análise, não se leva em conta outros fatores que não a objetividade matemática da economia neoclássica. Quando essa objetividade pretensiosamente imparcial é aplicada nos modelos regulatórios tecnológicos, o debate sobre regulação pela tecnologia pode se tornar cada vez mais enviesado e, portanto, mais periculoso aos usuários e à toda sociedade.

A análise da regulação tecnológica como propriedade emergente de um sistema maior permite combinar a análise da regulação como resultado de tomadas de decisão intencionais dos agentes com a compreensão das propriedades do sistema no qual a regulação ocorre e que a torna possível (ANTONELLI, 2011).

Desse modo, é necessário refletir sobre a eficiência dos algoritmos não só na regulação de cenários complexos, mas também levando em consideração que o desenvolvimento dos algoritmos e suas utilizações são movidos por diferentes agentes, interesses e objetivos, sendo imperioso tratar do tema de maneira cautelosa e sem abraçar a suposta objetividade por trás dos modelos criados.

Riscos e perspectivas

Diante do cenário tratado, é possível discutir sobre quais são as perspectivas para o uso da tecnologia como regulação, bem como quais riscos estão relacionados à essa utilização, e o que pode ser feito para superar os problemas apresentados.

Pasquale aponta como um dos riscos da regulação algorítmica a discriminação, ou seja, o viés algorítmico utilizado nas decisões. No caso da regulação orientada por código, esse viés já se torna presente na própria estruturação do algoritmo, quando o desenvolvedor impõe seus próprios vieses no código, de modo que a tomada de decisões será feita a partir da visão de

mundo do próprio desenvolvedor. Esse processo pode acontecer tanto de forma inconsciente quanto de forma proposital, porém implícita, já que os interesses dos criadores dos algoritmos podem estar presentes no código de forma a influenciar as decisões finais.

Já no caso da regulação orientada por dados, os algoritmos podem ser treinados em dados que contêm preconceitos ou desigualdades, absorvendo os padrões dos dados de treinamento e usando esses padrões para tomar novas decisões ou formular novos entendimentos.

Se um algoritmo de contratação for treinado com um conjunto de dados que contém uma proporção muito maior de homens do que mulheres, o algoritmo pode aprender a favorecer os candidatos de sexo masculino. A falta de diversidade nos dados de treinamento também pode levar a uma exclusão sistemática de certos grupos sociais.

Como observou Ferguson (2017) ao analisar o uso do processamento de dados nos departamentos de polícia dos Estados Unidos, se os dados históricos refletirem preconceitos ou práticas discriminatórias, os algoritmos podem perpetuar essas práticas e excluir grupos sociais específicos do policiamento adequado e da justiça criminal.

Outro desafio da regulação pela tecnologia é a falta de transparência dos algoritmos. O’Neil (2017) afirma que a falta de explicabilidade dos algoritmos os tornam problemáticos ao dificultar a avaliação de como estão sendo usados e quais as consequências de suas decisões. Se não é possível saber como um algoritmo toma uma decisão, não é possível avaliar se esta é justa ou não.

Kearns e Roth (2019) também aduzem que essa falta de transparência pode levar a uma falta de confiança nos algoritmos. Se as pessoas não entendem como os algoritmos funcionam e como eles chegam às suas conclusões, é menos provável que confiem neles. Isso pode ser especialmente problemático em determinadas áreas, pois o questionamento no funcionamento dos algoritmos pode levar as pessoas a evitar tratamentos ou diagnósticos na área da saúde, ou até mesmo a questionar processos democráticos eleitorais auditados por algoritmos.

Os algoritmos têm sido automatizados para decisões desde a avaliação de crédito até a contratação em um emprego. São muitas decisões que podem alterar significativamente a vida das pessoas e que, até o momento, são bastante obscuras. Desse modo, é urgente a necessidade de obter um grau de transparência nesse processo que dê à sociedade a segurança de que todos estão sendo avaliados de maneira ética, justa e imparcial.

Quanto à responsabilidade algorítmica, existe uma lacuna interpretativa entre o direito e a tecnologia que não deixa claro quem é responsável pelas decisões tomadas pelos algoritmos. Os algoritmos podem ser altamente complexos e envolver uma variedade de processos, o que pode tornar difícil determinar quem é responsável por decisões específicas.

Eubanks (2018) enfatiza que essa questão é especialmente complexa e problemática, pois nos casos de regulação orientada por código, por exemplo, as pessoas que projetam o código não influenciam diretamente em suas decisões. Além disso, se os dados usados para treinamento desses algoritmos estão contaminados em termos de preconceitos e discriminação, qual seria então o grau de responsabilidade de quem coletou os dados e aplicou no algoritmo? Ou de quem apenas estruturou o código?

Essas são questões ainda sem qualquer resposta definitiva, mas que precisam urgentemente serem refletidas à luz dos avanços tecnológicos e da proteção jurídica tutelada pelo direito. De todo modo, a tecnologia continua vinculada à presença humana, nem que de modo a delegar ou transferir a máquinas a capacidade de decidir (FRAZÃO 2017).

Conclusão

Conforme abordado no âmbito deste trabalho, a regulação pela tecnologia está inserida em um sistema complexo, imprevisível e sujeito a mudanças não-lineares, o que pode levar (e tem levado) a consequências imprevistas e indesejadas, enfrentando desafios devido à natureza dinâmica das mudanças tecnológicas.

Há a crescente necessidade de criação de mecanismos institucionais eficazes para controlar o amplo alcance de ameaças, riscos e impactos adversos que os algoritmos podem causar da sociedade e na vida individual. Nesse sentido, Ulbricht e Yeung (2022) consideram que a regulação estatal é uma opção mais eficaz do que a autorregulação, pois oferece garantias e mecanismos regulatórios baseados no poder coercitivo estatal.

É importante evitar uma visão simplista de que a inovação tecnológica ou necessariamente a melhor forma de promover avanços na sociedade. Em verdade, é necessário que se pense de forma criativa e adaptativa sobre como a estrutura das organizações, processos políticos e sociais podem ser melhorados, e como a tecnologia pode contribuir para esse avanço (MEDINA, 2015).

De fato, a tecnologia proporciona avanços científicos e sociais significativos, que são capazes de mudar a vida de uma pessoa ou de toda uma sociedade. Por outro lado, à medida que o avanço tecnológico fornece novas possibilidades de melhoria, também apresenta novos riscos aos direitos tutelados pelo Estado. É preciso, portanto, encontrar o equilíbrio entre inovação tecnológica e proteção a garantias e direitos individuais e coletivos.

Além do mais, conforme aponta Lessig, é preciso observar até que ponto os criadores de código têm um compromisso com a sociedade, e até que ponto sua maior motivação é agradar outros interessados, como acionistas e empresas privadas.

Deve-se, também, levar em consideração o contexto de criação e desenvolvimento das tecnologias, para que os humanos se mantenham no controle final das tecnologias. Ao pensar em regulação por tecnologias, pensa-se em humanos sendo substituídos por máquinas, entretanto, as máquinas muitas vezes são reguladoras ineficazes, especialmente em ambientes complexos.

Enquanto problemas mais simples podem ser solucionados por meio de códigos binários, questões mais complexas ou que envolvem atividades no mundo real geralmente precisam de regulamentação por meio da lei. Portanto, é essencial a busca pelo equilíbrio entre automação e controle humano, pensando, além da inovação por si mesma, nas implicações sociais e políticas da utilização de novas tecnologias.

Referências bibliográficas

BEER, David. The social power of algorithms. Information, Communication & Society, v. 20,

n. 1, p. 1-13, 2017.

BURRELL, Jenna; FOURCADE, Marion. The society of algorithms. Annual Review of Sociology, v. 47, p. 213-237, 2021.

DAHLBERG, Lincoln. Cyber-libertarianism 2.0: A discourse theory/critical political economy examination. Cultural politics, v. 6, n. 3, p. 331-356, 2010.

DE FILIPPI, Primavera; HASSAN, Samer. Blockchain Technology as a Regulatory Technology: From Code is Law to Law is Code. De Filippi, P. & Hassan, S.(2016). Blockchain Technology as a Regulatory Technology: From Code is Law to Law is Code. First Monday, v. 21, n. 12, 2016.

FRAZÃO, Ana. Premissas para a reflexão sobre a regulação da tecnologia: Para que deve servir a regulação da tecnologia? Disponível em: <https://www.jota.info/opiniao-e- analise/colunas/constituicao-empresa-e-mercado/premissas-para-a-reflexao-sobre-a-  regulacao-da-tecnologia-16112017>.

HILDEBRANDT, Mireille. Algorithmic regulation and the rule of law. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences,

v. 376, n. 2128, p. 20170355, 2018.

HILDEBRANDT, Mireille. Law as Information in the Era of Data‐Driven Agency. The Modern Law Review, v. 79, n. 1, p. 1-30, 2016.

LATOUR, Bruno. Jamais fomos modernos. Editora 34, 1994. LESSIG, L. Code is law. Harvard magazine, 2000.

MEDINA, Eden. Rethinking algorithmic regulation. Kybernetes, v. 44, n. 6/7, p. 1005-1019, 2015.

OSTERCAMP, Pierre. From ‘Code is Law’to ‘Code and Law’: Polycentric Co-Regulation in Decentralised Finance (DeFi). Available at SSRN 4134259, 2021.

PASQUALE, Frank. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.

REIDENBERG, Joel R. Lex informatica: The formulation of information policy rules through technology. Tex. L. Rev., v. 76, p. 553, 1997.

ULBRICHT, Lena; YEUNG, Karen. Algorithmic regulation: A maturing concept for investigating regulation of and through algorithms. Regulation & Governance, v. 16, n. 1, p. 3-22, 2022.

YEUNG, Karen. Algorithmic regulation: A critical interrogation. Regulation & Governance,

v. 12, n. 4, p. 505-523, 2018.


02.10.2024

Este é um informativo diário que traz para o(a) leitor (a) as decisões do CADE com relação a aprovação e movimentação de atos de concentração, ao arquivamento/condenação de processos administrativos de condutas anticompetitivas e as publicações do CADE.

Este conteúdo é apenas para associados Assinatura alfa.
Cadastre-se
Already a member? Iniciar sessão