Rachel Pinheiro de Andrade Mendonça

Requisitar dados não é suficiente para a proteção da privacidade. É preciso tratar a assimetria de informação.

Elvino de Carvalho Mendonça & Rachel Pinheiro de Andrade Mendonça

A disruptura digital pelo qual passa o mundo não tem sido sem dor. As “maravilhas” da tecnologia materializadas nos smartphones cobram o seu preço e esse preço é o ataque frontal a privacidade e a liberdade do ser humano.

Estas pequenas “maravilhas” transferem dados pessoais a cada acesso ou transação para as Big techs, que, a partir de infinitos acessos e/ou transações realizadas por cada detentor de smartphone, são capazes de construir bases de dados gigantescas com informações pessoais as mais variadas possíveis e em um nível de detalhe tão pequeno quanto se possa imaginar.

O passo seguinte é a utilização destas informações pela empresa para fazer negócios sem o consentimento do ser humano, na medida em que captam, armazenam, classificam, precificam e alienam os comportamentos, pensamentos e sentimentos de cada ser humano sob o manto de um “capitalismo de vigilância”, cujos reais interessados nesse grande mercado de predição de comportamentos futuros são as empresas de marketing e publicidade e o real valor desse modelo de negócios não são mais os usuários e sim os seus comportamentos, pensamentos e sentimentos.

Segundo Shoshana Zuboff:

“o capitalismo de vigilância reivindica de maneira unilateral a experiência humana como matéria-prima gratuita para a tradução em dados comportamentais. Embora alguns desses dados sejam aplicados para o aprimoramento de produtos e serviços, o restante é declarado como superávit comportamental do proprietário, alimentando avançados processos de fabricação conhecidos como “inteligência de máquina” e manufaturado em produtos de predição que antecipam o que um determinado indivíduo faria agora, daqui a pouco e mais tarde. Por fim, esses produtos de predições são comercializados num novo tipo de mercado para predições comportamentais que chamo de mercados de comportamentos futuros. Os capitalistas de vigilância têm acumulado uma riqueza enorme a partir dessas operações comerciais, uma vez que muitas companhias estão ávidas para apostar no nosso comportamento futuro.” [1]

Prossegue a Autora Shoshana Zuboff aduzindo que,

“[p]or enquanto, digamos que os usuários não são produtos, e sim que são  as fontes de suprimento de matéria-prima.” [2]

 No entanto, o que é ainda mais grave é a utilização destas informações para atuar em um nível abaixo da consciência humana, fazendo com que o ser humano seja induzido/manipulado digitalmente a consumir não o que deseja, mas sim aquilo que a empresa deseja. Neste ponto, vale citar Byung-Chul Han que, parafraseando Walter Benjamin, aduz ao inconsciente óptico a seguinte estrutura:

“Os pensamentos de Benjamin sobre o inconsciente óptico podem ser transpostos ao regime da informação. Big Data e inteligência artificial constituem uma lupa digital que explora o inconsciente, oculto ao próprio agente, atrás do espaço da ação consciente. Em analogia ao consciente óptico, podemos chamá-lo de inconsciente digital. O Big Data e a Inteligência Artificial levam o regime de informação a um lugar em que é capaz de influenciar nosso comportamento em um nível que fica embaixo do liminar da consciência.”[3]

A proteção de dados no Brasil se encontra tratada na Lei Geral de Propriedade de Dados (LGPD)[4], diploma legal que dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural (art. 1º) e que cria a Autoridade Nacional de Proteção de Dados (ANPD), autarquia de natureza especial, dotada de autonomia técnica e decisória, com patrimônio próprio e com sede e foro no Distrito Federal (art. 55-A).

E um dos requisitos para o tratamento dos dados previstos na LGPD para fazer a proteção de dados individuais está previsto no caput do art. 9º, que pugna que [o] titular tem direito ao acesso facilitado às informações sobre o tratamento de seus dados, que deverão ser disponibilizadas de forma clara, adequada e ostensiva acerca de, entre outras características previstas em regulamentação para o atendimento do princípio do livre acesso.

A garantia de acesso aos dados pelo usuário é uma condição necessária, mas não suficiente para que o tratamento de dados individuais atinja o objetivo da privacidade, principalmente porque há uma abissal assimetria de informação[5] entre a big tech e o usuário, assimetria que é potencializada pelo fato de que transparência dos dados para o usuário não pode ultrapassar a proteção dos segredos de empresa e industriais, conforme postula o art 6º, inciso VI[6], da mesma lei.

Acertadamente, a LGPD atribui à ANPD a competência para articular-se com as autoridades reguladoras públicas para exercer suas competências em setores específicos de atividades econômicas e governamentais sujeitas à regulação (art. 55-J, inciso XXIII) e a competência para que [a] ANPD e os órgãos e entidades públicos responsáveis pela regulação de setores específicos da atividade econômica e governamental coordenem as suas atividades, nas correspondentes esferas de atuação, com vistas a assegurar o cumprimento de suas atribuições com a maior eficiência e promover o adequado funcionamento dos setores regulados, conforme legislação específica, e o tratamento de dados pessoais, na forma desta Lei (art. 55-J, § 3º).        

A atuação conjunta da ANPD e das agências reguladoras permite chamar à atenção para o real problema que envolve a proteção de dados, que é a assimetria de informação existente entre as empresas (Big techs) que captam os dados, os usuários, as agências reguladoras setoriais e a ANPD, conforme mostra a figura 1.

Figura 1. O problema do agente-principal na proteção de dados

No modelo exposto na figura 1, verifica-se que embora o usuário detenha a propriedade do dado, quem o utiliza e desenvolve políticas comerciais sem que o usuário tenha como identificá-las é a empresa. Da mesma forma, ainda que a agência reguladora, em parceria com a ANPD, detenha alguns instrumentos para a obtenção dos dados e dos sistemas de mineração de dados, o core da informação obtida é o segredo do negócio da empresa e ela tem incentivos econômicos para não revelar a nenhum agente, sobretudo ao Estado.

Conforme expresso anteriormente, a LGPD garante ao usuário o acesso a todas as suas informações, bastando, apenas, que o usuário as solicite à empresa. No entanto, o dado é só o insumo e tem pouca serventia se não vier acompanhado das informações geradas por ele e, sobretudo, de como a empresa utilização essa informação no mercado de predição de comportamentos futuros, com altíssimo lucro.

Portanto, é exatamente o que e como as Big techs utilizam os dados dos usuários que é o “X” da questão da proteção de dados. Solicitar dados, algoritmos e outras coisas que o valham não soluciona o problema da privacidade dos usuários, pois o abuso do direito de privacidade por parte das empresas não está no dado, mas na informação gerada por este dado, e se essas empresas não estão dispostas a informá-las, a razão é que ela detém muito mais informações a respeito do seu negócio que o regulador.

O caminho para fazer com que as Big techs respeitem o direito de privacidade do usuário passa por fazer com que o retorno financeiro da empresa em respeitar o direito seja superior ao retorno financeiro de não respeitá-lo. Um caminho possível é gerar incentivos sobre o gerador do benefício para a empresa[7], que é o usuário.

A obrigação de apresentar dados não é suficiente para fazer com que a empresa pare de avançar sobre a privacidade dos usuários, pois repassar os dados para o usuário não altera o retorno esperado da empresa.

No entanto, é preciso que o usuário seja beneficiado pela agência reguladora (Estado) através de um mecanismo em que a big tech seja obrigada a revelar informações que não desejaria para o regulador. Esse é o árduo trabalho que deverá ser enfrentado pela regulação econômica envolvendo as agências reguladoras e a ANPD.


[1] ZUBOFF, Shoshana.  A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira de poder. Tradução George Schlesingerr. Rio de Janeiro: Intrínseca, p. 23.

[2] [2] ZUBOFF, Shoshana.  A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira de poder. Tradução George Schlesingerr. Rio de Janeiro: Intrínseca.

[3] HAN, Byung-Chul. Infocracia: digitalização e a crise da democracia. Tradução de Gabriel S. Philipson. Petrópolis: Editora Vozes. 2022, p.23.

[4] L13709 (planalto.gov.br)

[5] VARIAN, HALL. Intermediate Microeconomics: A Modern Approach. Fifth Edition. W. W. Norton. 1999.

[6] Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios:

VI – transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial;

[7] Um exemplo importante a se considerar diz respeito a nota legal. Neste caso, ao colocar o CPF nas suas compras o consumidor fica automaticamente habilitado a participar de sorteio realizado pela Secretaria de Estado de Fazenda, onde são oferecidos descontos no pagamento de impostos (ex. IPVA), entre outras coisas. Ao solicitar que o consumidor solicite a inserção do seu cpf na nota fiscal, o estabelecimento comercial fica automaticamente obrigado a emitir a nota fiscal e, com isso, fica obrigado a recolher os impostos devidos. A obrigação de emitir nota fiscal por si só não é suficiente para fazer com que o comerciante de fato a emita, mas a oferta de benefício para o consumidor obriga a emissão da nota fiscal por parte do comerciante.

Autorregulação regulada: o trade-off entre o custo regulatório e a liberdade econômica

Elvino de Carvalho Mendonça & Rachel Pinheiro de Andrade Mendonça

A regulação econômica normativa desenvolvida pelas nações, inclusive o Brasil, se basearam na utilização, por parte das agências reguladoras, de métodos para fazer com que o setor que fosse caracterizado por falhas de mercado intransponíveis se comportasse em “concorrência perfeita”.

Em um mundo onde não houvesse assimetria de informação e a falha de mercado fosse o monopólio natural, a literatura aponta que o regulador deveria ou exigir preços iguais ao custo marginal ou exigir preços iguais ao custo médio. No primeiro modelo, o regulador subsidiaria o regulado, pois na condição de p=cmg em monopólio natural os lucros do monopolista seriam negativos, e, no segundo modelo, não haveria subsídio, mas os preços praticados não seriam os de concorrência perfeita.

Conquanto estes modelos sejam boas estruturas para demonstrar como a intervenção estatal via regulação tende a funcionar em mercados em monopólios naturais, a existência da falha de mercado denominada assimetria de informação na economia em geral impossibilita que o regulador não seja capaz de identificar a estrutura de custos dos regulados e decidir por fixar o preço igual ao custo marginal ou ao custo médio.

Este fato acontece porque o regulado conhece muito melhor o seu negócio detém informações estratégicas que o regulador não possui (estrutura de custos), o que impede que a política regulatória a ser alcançada seja a solução definida na teoria econômica como equilíbrio de primeiro melhor (first-best).

Portanto, imaginava-se que bastava ter poder de enforcement para que as empresas reguladas revelassem as informações necessárias para que o equilíbrio de primeiro melhor fosse obtido. No entanto, muito rapidamente os aplicadores da regulação econômica perceberam que a exigência de informações dos regulados não seria uma estratégia possível para se obter os melhores resultados regulatórios, vez que os regulados não revelariam as suas informações privadas se não houvesse incentivos para isso.

Foi através desta percepção que a regulação econômica desenvolveu outros modelos de regulação, dentre os quais pode-se citar o modelo de regulação por incentivos. A ideia básica era fazer com que o regulado revelasse as suas informações sem que estas necessitassem ser exigidas pela autoridade, assim como faz o empregador quando remunera o seu empregado em duas partes, uma fixa e outra variável. A remuneração variável possibilita que o empregador identifique o esforço do empregado, não necessitando exigir esforço de antemão.

No mundo da regulação econômica normativa, o exemplo de mecanismo de incentivos mais utilizado é o do preço teto (price-cap), instrumento muito utilizado na regulação do setor elétrico, por exemplo. Com esse método, o regulador contrata com os regulados tarifas de serviços públicos cada vez mais baixas à medida que o contrato avança no tempo. Neste caso, mesmo que o regulador não saiba a estrutura de custos, a redução paulatina da tarifa ao longo do tempo vai exigir aumentos de produtividade por parte do regulado, além de gerar tarifas cada vez menores para os usuários.

Em que pese não sejam perfeitos os regimes regulatórios por incentivos e outros que surgiram ao longo do tempo, o que ficou claro da experiência com a regulação econômica normativa é que nenhum regulado revelará as suas informações privadas se não for estimulado a fazer isso e este estímulo está diretamente ligado com as condições mercadológicas com as quais estes se defrontam.

Na esteira das inovações regulatórias e com o intuito de minimizar a intervenção estatal é que surgiram os modelos de co-regulação e de autorregulação regulada. Em ambos os casos, as empresas privadas elaboram regras regulatórias e as controlam privadamente, sendo que na autorregulação regulada as regras, embora feitas pelo mercado, mas têm que ser chanceladas pelo Estado.

Na prática, estas duas formas de regulação trabalham com a cooperação das empresas privadas para informarem todas as características dos seus mercados, a fim de que o Estado tenha condições de apresentar os melhores resultados para a sociedade (ex. preço igual a custo marginal).

O fundamento básico destas novas teorias de regulação é a de que o Estado deve se limitar a fazer cumprir a legislação existente, de maneira a punir as empresas que avançarem sobre todas as infrações que já estão amplamente tipificadas nas leis administrativas e penais, e não dizer como as empresas devem se comportar nos mercados. O Estado não deve guiar o mercado, mas sim garantir o equilíbrio desse mercado por meio dos instrumentos legais existentes.

Esta reflexão faz lembrar a forma como a defesa da concorrência é aplicada no Brasil. Atualmente, na égide da Lei nº 12.529/2011, o mandato da autoridade brasileira de defesa da concorrência (CADE) cobre uma função preventiva (controle de estruturas) e uma função coercitiva (análise de condutas). A função preventiva permite o controle do aumento da concentração de mercado a fim de evitar condutas anticompetitivas e a função coercitiva permite a ação coibidora das infrações à ordem econômica já “praticadas”.

Obviamente que a existência do controle de estruturas não é um consenso entre todas as linhas teóricas jurídicas e econômicas dedicadas a defesa da concorrência. Em apertada síntese, os teóricos do paradigma estrutura conduta desempenho (ECD) entendem que o controle de estruturas evita condutas de forma eficiente, ao passo que a escola de Chicago entende que a concentração de mercado gera eficiências e, em grande parte dos casos, não deve ser desestimulada.

Assim também parece ser a discussão entre os adeptos da regulação econômica normativa e os adeptos da corregulação e da autorregulação regulada. De um lado, acredita-se na intervenção estatal para evitar efeitos indesejáveis do ponto de vista regulatório e concorrencial, de outro acredita-se que estes efeitos indesejáveis, se existirem, devem ser combatidos pelo Estado fora da natureza empresarial.

Na verdade, a escolha entre a regulação econômica normativa e a autorregulação envolve um trade off nada trivial para o Estado e a ausência de trivialidade está associada com a falha de mercado exposta no início deste artigo, qual seja: a assimetria de informações.

Por um lado, o Estado abre mão do custo regulatório e dá a liberdade desejada para o setor privado, mas por outro abre mão dos mecanismos de incentivos para obter informações a respeito do mercado. É importante repisar que as empresas privadas não revelam as suas informações estratégicas, a menos que vejam oportunidades de negócios ou que sejam induzidas as revelar.

Neste sentido, ao abrir mão da utilização de mecanismos regulatórios para obter informações relevantes das empresas, atuando de forma preventiva, o Estado abre mão de instrumentos para o combate coercitivo, sobretudo em caso de existência de práticas anticompetitivas.

A robotização do Poder Judiciário brasileiro (Justiça 4.0) e o par eficiência e celeridade: o Juiz de Lata e os perigos da algoritmização da função de julgar

Rachel Pinheiro de Andrade Mendonça

O Poder Judiciário brasileiro contava em 31.07.2022 com 75.855.539 milhões de processos em tramitação[1], segundo números do Relatório Justiça em Números de 2022 (Ano-Base 2021).[2] A busca por uma solução que contemple o par “eficiência” e “celeridade” no julgamento das lides urge e, nessa angústia, muitos apostam todas as suas fichas na algoritmização do Poder Judiciário.

Não parece haver dúvidas de que essa algoritmização faz parte da inclusão do Poder Judiciário na (nova) Sociedade da Informação e é fato que já vem auxiliando para a “celeridade” da prestação jurisdicional, na medida em que os algoritmos, treinados para determinados fins, fazem o trabalho de modo mais ágil que o ser humano.

No entanto, algoritmização do Poder Judiciário entregará a eficiência e a verdadeira prestação jurisdicional? Esse é o questionamento que esse artigo chama à atenção, além do perigo da algoritmização de toda e qualquer atividade desenvolvida pelo Poder Judiciário.

Para responder a esse questionamento, dividimos o artigo em três partes: (i) O estado atual da algoritmização do Poder Judiciário; (ii) Os algoritmos; (iii) O Juiz de Lata e o perigo da robotização do Poder Judiciário.

(i) O estado atual da algoritmização do Poder Judiciário

A algoritmização do Poder Judiciário caminha a passos largos. Programa criado pelo Conselho Nacional de Justiça (CNJ) – Justiça 4.0 – anuncia que “[o] Programa Justiça 4.0 torna sistema judiciário brasileiro da sociedade ao disponibilizar novas tecnologias de inteligência artificial”, “impulsiona a transformação digital do Judiciário para garantir serviços mais rápidos, eficazes e acessíveis”, além de “promover soluções digitais colaborativas que automatizam as atividades dos tribunais, otimizam o trabalho dos magistrados, servidores e advogados e garantem, assim, mais produtividade, celeridade, governança e transparência dos processos”, atuando em 4 eixos:

  • Inovação e Tecnologia;
  • Prevenção e combate à corrupção e à lavagem de dinheiro e recuperação de ativos;
  • Gestão de informação e políticas judiciárias; e
  • Fortalecimento de capacidades institucionais do CNJ.[3]

O sítio eletrônico do CNJ também informa que há outras ações em andamento como: (i) Plataforma Digital do Poder Judiciário; (ii) Plataforma Sinapses/Inteligência Artificial; (iii) Plataforma Codex; (iv) Balcão Virtual; (v) Núcleos de Justiça 4.0; (vi) Juízo 100% Digital; (vii) Painel das Resoluções; e (viii) Domicílio Judicial Eletrônico.

O Segundo Relatório do CNJ elaborado pela Fundação Getúlio Vargas (FGV) tratou sobre as “Tecnologias Aplicadas à Gestão de Conflitos no Poder Judiciário com ênfase no uso da inteligência artificial”[4] quando em 2020, já contava com 64 projetos de Inteligência Artificial em funcionamento ou em processo de implantação em 47 tribunais do país, além da Plataforma Sinapses do CNJ, sendo entendidas, pelo próprio CNJ, como um dos instrumentos mais importantes de gestão do Poder Judiciário, uma vez que implica em racionalizar recursos, mão de obra e atividades, diante de uma demanda cada vez mais crescente.[5]

Artigo escrito pelo Ministro Luis Felipe Salomão[6], Coordenador do Projeto, classifica os programas de Inteligência Artificial aplicados no Poder Judiciário em quatro grupos:

  • Primeiro grupo: Auxílio nas atividades-meio, relacionadas à administração da Justiça e melhor gestão de recursos financeiros e de pessoal. Exemplos: Chatbot Digep (TJRS), Judi Chatbot (TJSP) e Amon (TJDFT);
  • Segundo Grupo: Auxílio nas atividades-fim, sobretudo, relacionados aos fluxos de movimentação de processo e das atividades executivas e pré-determinadas em auxílio aos juízes, como apoio à gestão de secretarias e gabinetes, fazendo triagem e agrupamento de processos similares, classificação de petição inicial, transcrição de audiências etc. Exemplos: Athos (STJ), Júlia (TRF3ª Região), Tia (TJAP), Hércules (TJAL), Toth (TJDFT), Berna (TJGO), Larry (TJPR) etc.
  • Terceiro Grupo: em menor quantidade, possui modelos computacionais que dão suporte a elaboração de minutas de sentença, votos ou decisões interlocutórias. Exemplos: Victor no STF, Alei (TRF 1ª Região), Argos (TJES), Midas (TJPB), Jurimetria com Inteligência Artificial (apontam tendências de julgamentos);
  • Quarto Grupo: Programas que auxiliam na resolução de conflitos judiciais. Exemplo: Icia (TRF 4ª Região) e o Concilia (TRT 12ª Região). 

Recentemente, também foi noticiada a ocorrência da primeira audiência via metaverso na Justiça Federal na Paraíba,[7] o que confirma que o caminho em direção a algoritmização do Poder Judiciário brasileiro anda de vento em popa.  

 Essa é a fotografia atual da algoritmização do Poder Judiciário.

(ii) Os algoritmos

Os algoritmos estão por toda parte e podem ser usados com boas ou más intenções. Para se permitir indiscriminadamente a utilização de algoritmos no Poder Judiciário é fundamental entender como são construídos, por quem são construídos e quais os interesses, ideias e ideais das empresas que os constroem.

A origem da palavra algoritmo remete a Al Khowarizmi, famoso matemático árabe do século IX.[8]  Mas, o que são os algoritmos? Como são desenvolvidos? São opacos? Como são formadas as bases de informações no input para produzirem o resultado output?

Um algoritmo é, pois, uma sequência de raciocínios, instruções ou operações para alcançar um objetivo, sendo necessários que os passos sejam finitos e operados sistematicamente. Um algoritmo, portanto, conta com a entrada (input) e a saída (output) de informações mediadas pelas instruções. Na prática, “são apresentados, corriqueiramente, como fornecedores de insights de como somos como pessoas e são capazes de prever como nos comportaremos no futuro.”[9]

Segundo Leonardo Marques Vieira, “[o]s algoritmos são modelos matemáticos (softwares) ordenados por uma determinada finalidade, buscando padrões de números.”[10] Registre-se, pois, que os “algoritmos são falíveis e limitados”[11] e “as conclusões que tiram a nosso respeito podem ser discriminatórias”[12] mas, não obstante isso, já dominam todas as formas do comportamento humano na sociedade do controle.

David Sumpter parafraseando Cathy O’Neil diz que “os usos indevidos de algoritmos em tudo, desde a avaliação de professores e propagandas on-line de cursos universitários a fornecimento de crédito privado e previsões de reincidências criminais” e que “[s]uas conclusões eram assustadoras, eis que os algoritmos estavam nos julgando de maneira arbitrária, frequentemente baseados em pressuposições dúbias e dados imprecisos”.

            No estágio atual da transição paradigmática para a sociedade do controle, das redes, da tecnologia da informação, os algoritmos provocam ao menos dois grandes sentimentos:

  • o primeiro, o de que há uma dominação, uma submissão dos resultados que produzem condicionando as ações humanas, confundindo o fato de terem em seu core a matemática como ciência exata, eis que buscam transferir para os resultados que produzem a mesma exatidão da ciência matemática, o que não é fato;
  • o segundo, a de uma grande insegurança dos resultados “reais” com a má utilização dos algoritmos para o alcance desses resultados, como o que ficou amplamente verificado com a utilização da Cambridge Analytica por Donald Trump para ganhar as eleições norte-americanas em 2017.

            No que concerne as suas características, ao menos duas já foram identificadas:

(i) a primeira, a de que são opacos, verdadeiras “caixas pretas”, onde não há possibilidade dos juízes ou qualquer um dos jurisdicionados entender quais informações foram introduzidas no (Input) e nem como o algoritmo chegou a determinado resultado (Output), o que impede o conhecimento do funcionamento interno dos algoritmos, daí “[a]s pessoas quererem saber o que está acontecendo dentro das caixas-pretas que são usadas para nos avaliar e influenciar.”[13]

(ii) o segundo, o de que o modo como os algoritmos são “ensinados” partem de duas perspectivas bastante preocupantes do ponto de vista da retratação da “realidade fática”, ou seja, não só são projetados por meio das informações que o próprio homem ensina à máquina, como captam informações e vieses de outros algoritmos semelhantes por meio de machine learnings ou deep learnings.

Sobre a opacidade dos algoritmos, Sumpter aduz que o termo “caixa-preta” foi utilizado em duas oportunidades, tanto por Frank Pasquale, no título do seu livro “The Black Box Society”, quanto pela ProPublica, em sua série de matérias e vídeos curtos sobre algoritmos chamada “Breaking the Black Box”.” [14]

É fato que na sociedade da informação, “[k]nowledge is power.”[15] Frank Pasquale anuncia que “Deconstructing the black boxes of Big Data isn’t easy”[16] e que há três motivos, ao menos, para se manter as caixas pretas fechadas: sigilo real, sigilo legal e ofuscação, ex vi:

O verdadeiro sigilo estabelece uma barreira entre o conteúdo oculto e o acesso não autorizado a ele. Usamos sigilo real diariamente quando trancamos nossas portas ou protegemos nosso e-mail com senhas. O sigilo legal obriga aqueles que têm acesso a certas informações a mantê-las em segredo; um funcionário do banco é obrigado tanto por autoridade estatutária quanto por termos de contrato a não revelar saldos de clientes a seus amigos. A ofuscação envolve tentativas deliberadas de ocultação quando o sigilo foi comprometido. [17]

Posto isso, considerando que “[n]enhum modelo consegue incluir toda e qualquer complexidade do mundo real ou as nuances da comunicação humana e que “inevitavelmente alguma informação importante fica de fora”[18], acende-se um gravíssimo alerta para a algoritmização de toda e qualquer função no Poder Judiciário.

(iii) O Juiz de Lata e o perigo da robotização do Poder Judiciário

A partir de todas essas considerações, surgem alguns questionamentos importantes:

  • o resultado produzido pelo algoritmo é verdadeiro (corresponde a toda a realidade compreendida de modo holístico ou pode ser discriminatório?
  • a sentença feita por um juiz humano teria o mesmo resultado da que for feita por um juiz robô ou se se pode confiar no resultado dos algoritmos sem conhecer o processo de formação de sua base de dados, sem conhecer o processo inovativo que o conduz?
  • o modelo de personalidade Big Five utilizado pelas Big Techs permite a “[u]m computador nos entender melhor que um humano?[19]

Surge, então, uma reflexão, um balanceamento dos interesses em conflito, entre a “celeridade” que os programas tecnológicos constituídos por algoritmos podem proporcionar ao Poder Judiciário em termos de rapidez, organização de dados, diminuição da mão-de-obra humana, barateamento de recursos, dentre inúmeros outros e, de outro lado, o perigo para a robotização de todas as funções do Poder Judiciário e, sobretudo, a função de julgar (Terceiro Grupo de programas) que já estão sendo usados no Brasil.

Desse modo, por mais que se diga que a decisão elaborada por um “algoritmo, programa ou robô” ainda prescinda da intervenção humana, dada a quantidade de processos que assolam o Poder Judiciário, a pequena quantidade de servidores para dar conta de tão grande demanda, a pressão pelo atingimento das metas de julgamento, dentre inúmeros outros fatores, chegamos a duas importantes conclusões:

  • a primeira, a de que as atividades-fim de elaboração de sentenças, acórdãos e decisões interlocutórias jamais deveriam ter o suporte de um robô para a sua elaboração;
  • a segunda, a de o core da função do Poder Judiciário estar sendo, paulatinamente, transferida para programas algorítmicos formulados por empresas de tecnologia com base em suas crenças, ideais e interesses e tendem a não produzir a eficiência tão almejada para a verdadeira prestação jurisdicional, afinal, o algoritmo não está no mundo, não pode ser-em-si e nem ser-para-si e só a espécie humana é Dasein;
  • a terceira, a de que o Juiz de Lata não tem condições de analisar as peculiaridades de cada caso concreto e, por trás dos processos judiciais (físicos ou digitais, feitos de átomos ou de bits), existem vidas, existem problemas reais que estão no mundo, existe a ânsia para que o Poder Judiciário cumpra o seu verdadeiro papel que é a função de julgar.

 Posto isso, estejamos ainda mais atentos para que a humanidade e o Poder Judiciário não percam o que tanto o homem de lata buscou – um coração que possa compreender de modo holístico o que por trás dos processos judiciais (físicos ou digitais, átomos ou bits) porque atrás desses existem vidas e o sentimento de Justiça que não pode ser alcançado por um juiz de lata, sem coração.


[1] Disponível em Estatísticas do Poder Judiciário (cnj.jus.br) em 07/10/2022.

[2] Disponível em https://www.cnj.jus.br/wp-content/uploads/2022/09/justica-em-numeros-2022-1.pdf em 05/10/2022. (p. 30)

[3] Disponível em https://www.cnj.jus.br/tecnologia-da-informacao-e-comunicacao/justica-4-0/

[4] Disponível em https://ciapj.fgv.br/sites/ciapj.fgv.br/files/relatorio_ia_2fase.pdf em 05/10/2022.

[5] Disponível em  https://www.cnj.jus.br/pesquisa-revela-que-47-tribunais-ja-investem-em-inteligencia-artificial/  em 05/10/2022.

[6] Disponívsel em https://www.conjur.com.br/2022-mai-11/salomao-tauk-estamos-perto-juiz-robo em 05/10/2022.

[7] Disponível em Justiça Federal na Paraíba realiza primeira audiência real do Brasil no metaverso – Portal CNJ em 05/10/2022.

[8] Disponível em https://rockcontent.com/br/blog/algoritmo/#:~:text=Um%20algoritmo%20%C3%A9%20uma%20sequ%C3%AAncia,matem%C3%A1tico%20%C3%A1rabe%20do%20s%C3%A9culo%20IX disponível em 28/07/2022.

[9] SUMPTER, David. Dominados pelos números do Facebook e Google às Fake News – os algoritmos que controlam nossa vida. Op. Cit., p. 63.

[10] VIEIRA, Leonardo Marques. A problemática da Inteligência Artificial e dos vieses algorítmicos: caso Compas. Op. Cit.

[11] VIEIRA, Leonardo Marques. A problemática da Inteligência Artificial e dos vieses algorítmicos: caso Compas. Brasilian Technology Symposium, 2019. Disponível em https://www.lcv.fee.unicamp.br/images/BTSym-19/Papers/090.pdf  em 11/08/2022.

[12] SUMPTER, David. Dominados pelos números do Facebook e Google às Fake News – os algoritmos que controlam nossa vida. Tradução: Anna Maria Sotero e Marcello Neto. Rio de Janeiro: Bertrand Brasil, 2019, p. 23.

[13] SUMPTER, David. Dominados pelos números do Facebook e Google às Fake News – os algoritmos que controlam nossa vida. Op. Cit., p. 27.

[14] Idem.

[15] PASQUALE, Frank. The black box Society: the Secret Algorithms That Control Money and Information. First Harvard University Press paperback edition, 2016, Sixth Printing, p.3.

[16] PASQUALE, Frank. The black box Society: the Secret Algorithms That Control Money and Information. Idem, p. 6.

[17] Tradução livre: Real secrecy establishes a barrier between hidden contente and unauthorized access to it. We use real secrecy daily when we lock our doors or protect our e-mail with passwords. Legal secrecy obliges those privy to certain information to keep it secret; a bank Employee is obliged both by staturory authority and by terms of employment not to reveal costumers’ balances to his buddies. Obfuscation involves deliberate attempts at concelament when secrecy has been comprommised.[17]

[18] O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução: Rafael Abraham. Santo André, SP: Editora Rua do Sabão, 2020, p. 33.

[19] SUMPTER, David. Dominados pelos números do Facebook e Google às Fake News – os algoritmos que controlam nossa vida. Op. Cit., p. 59.