Os Textos para Discussão da WebAdvocacy é uma série de textos técnico-científicos nas áreas de direito e economia, que visa a ampliar a discussão acadêmica em torno dos temas de defesa da concorrência, regulação econômica, comércio internacional, direito econômico, direito tributário, entre outros.

Os textos para discussão da WebAdvocacy estão disponíveis para leitura na plataforma no link: Textos para Discussão.


Corpo editorial

Editor:

Elvino de Carvalho Mendonça

Conselho editorial:

Amanda Flávio de Oliveira – Doutora em direito

Eduardo Molan Gaban – Doutor em direito

Elvino de Carvalho Mendonça – Doutor em economia

Fernanda Manzano Sayeg – Doutora em direito

Fernando de Magalhães Furlan – Doutor em direito

Katia Rocha – Doutora em Engenharia de Produção/Finanças

Luiz Alberto Esteves – Doutor em economia

Márcio de Oliveira Júnior – Doutor em economia

Marco Aurélio Bittencourt – Doutor em economia

Marcos André Mattos de Lima – Mestre em economia 

Rachel Pinheiro de Andrade Mendonça – Doutora em direito

Vanessa Vilela Berbel – Doutora em Direito

Ficha catalográfica

As opiniões emitidas nesta publicação são de exclusiva e inteira responsabilidade dos autores, não exprimindo, necessariamente, o ponto de vista da WebAdvocacy – Direito e Economia.

É permitida a reprodução deste texto e dos dados nele contidos, desde que citada a fonte. Reproduções para fins comerciais são proibidas.


Inteligência artificial e a democratização do direito: o papel do Prompt Engineering na tradução do juridiquês

Herval Madeira Forny e Lorenzo Martins Pompílio da Hora


Resumo

A linguagem jurídica, tradicionalmente caracterizada pela alta complexidade técnica e pelo uso do “juridiquês”, representa uma barreira significativa ao acesso à justiça e à compreensão do Direito pela sociedade civil. Com a ascensão da Inteligência Artificial Generativa e dos Modelos de Linguagem de Grande Escala (LLMs), surgem novas possibilidades para a democratização da informação jurídica. O presente artigo analisa o papel do Prompt Engineering (Engenharia de Comandos) como ferramenta mediadora na simplificação da escrita jurídica, visando torná-la acessível ao público leigo sem prejuízo ao rigor científico. A metodologia adotada consiste em uma pesquisa exploratória de natureza qualitativa, baseada em revisão bibliográfica e análise documental, com foco na eficácia de técnicas como Chain-of-Thought (Cadeia de Pensamento) e Few-shot Prompting. Os resultados indicam que, embora a IA funcione como um “exosqueleto cognitivo” capaz de traduzir termos herméticos, a qualidade da entrega está intrinsecamente ligada à estruturação do comando (princípio GIGO[1]) e à supervisão crítica humana para mitigar riscos de alucinações e vieses. Conclui-se que a aplicação estratégica do Prompt Engineering promove a transparência e a inclusão linguística, fortalecendo a atuação de advogados e profissionais liberais na era da advocacia 4.0.
Palavras-chave: Inteligência Artificial. Prompt Engineering. Juridiquês. Acessibilidade Jurídica. Modelos de Linguagem (LLMs).
 

Abstract

Legal language, traditionally characterized by high technical complexity and “legalese,” represents a significant barrier to access to justice and the understanding of Law by civil society. With the rise of Generative Artificial Intelligence and Large Language Models (LLMs), new possibilities for the democratization of legal information emerge. This article analyzes the role of Prompt Engineering as a mediating tool in simplifying legal writing, aiming to make it accessible to the lay public without compromising scientific rigor. The adopted methodology consists of qualitative exploratory research, based on bibliographic review and documentary analysis, focusing on the effectiveness of techniques such as Chain-of-Thought and Few-shot Prompting. The results indicate that, although AI acts as a “cognitive exoskeleton” capable of translating hermetic terms, the quality of the output is intrinsically linked to the command structuring (GIGO principle) and critical human supervision to mitigate risks of hallucinations and biases. It is concluded that the strategic application of Prompt Engineering promotes transparency and linguistic inclusion, strengthening the performance of lawyers and liberal professionals in the era of Law 4.0.
Keywords: Artificial Intelligence. Prompt Engineering. Legalese. Legal Accessibility. Large Language Models (LLMs).


1. Fundamentação Teórica: A Revolução dos Modelos de Linguagem
A compreensão da Inteligência Artificial (IA) no contexto jurídico exige, primordialmente, a distinção entre as tecnologias de automação clássicas e a nova vaga de modelos generativos que redefiniram a produção de conteúdo textual.
 
1.1. Conceito e Breve Histórico da IA: Dos Sistemas Especialistas aos Modelos Generativos
Historicamente, a aplicação da IA no Direito iniciou-se com os chamados “Sistemas Especialistas”, baseados em regras rígidas do tipo “se-então” (if-then). Eram sistemas lógicos que tentavam mimetizar o raciocínio silogístico do juiz, mas que esbarravam na complexidade e nas nuances da linguagem natural.
A grande virada ocorreu com a transição para o Aprendizado de Máquina (Machine Learning), onde o sistema deixa de seguir regras programadas manualmente e passa a identificar padrões em grandes volumes de dados. Atualmente, vivemos a era da IA Generativa, capaz não apenas de classificar documentos, mas de criar textos inéditos, petições e sínteses acadêmicas a partir de instruções em linguagem humana.
 
1.2. O que são LLMs: Funcionamento Conceitual, Tokens e Contexto
Os Modelos de Linguagem de Grande Escala (Large Language Models – LLMs), como o GPT, Claude e Gemini, são redes neurais treinadas em vastos corpora de textos. Diferente da percepção popular, estes modelos não “pensam” nem possuem consciência; eles operam sob uma lógica de previsão probabilística.
Ao receber um comando, o modelo decompõe o texto em unidades menores chamadas tokens (que podem ser palavras, sílabas ou caracteres). A partir dessa fragmentação, a IA calcula qual é o próximo token mais provável para dar continuidade à sequência, baseando-se no contexto fornecido.
Dois conceitos são vitais para o jurista:
Janela de Contexto: É a “memória de curto prazo” do modelo. Se um texto jurídico for excessivamente longo e ultrapassar essa janela, a IA pode ignorar partes cruciais do início do documento.
Probabilidade vs. Verdade: Como a IA busca a palavra mais provável e não necessariamente o facto verídico, surge o risco das “alucinações”, onde o modelo gera informações falsas com uma aparência de extrema autoridade.
 
1.3. A Inteligência Artificial no Cenário Jurídico Brasileiro
O Brasil apresenta um dos mercados jurídicos mais receptivos à inovação tecnológica no mundo. A necessidade de lidar com um acervo processual superior a 80 milhões de processos impulsionou a adoção de ferramentas inteligentes.
Conforme analisado em relatórios setoriais recentes:
Expectativa vs. Realidade: Em 2023, o relatório Future Ready Lawyer (Wolters Kluwer) apontou que 73% dos profissionais planejavam integrar a IA generativa em suas rotinas num prazo de 12 meses.
Adoção Efetiva: Dados de 2024 do Legal Trends Report (Clio) confirmam que essa expectativa se traduziu em prática, com 79% dos advogados declarando o uso de IA para suporte em tarefas de pesquisa e redação.
Projeções de Mercado: Estudos indicam que a taxa de utilização de ferramentas especializadas na advocacia brasileira, que girava em torno de 20% no final de 2024, tem potencial para atingir entre 40% a 50% até ao final de 2025.
 
Essa rápida ascensão justifica a necessidade de marcos regulatórios e diretrizes éticas, como a Recomendação n. 001/2024 do Conselho Federal da OAB, que enfatiza a natureza auxiliar da IA, mantendo a responsabilidade técnica e o juízo crítico sempre sob a égide do profissional humano.
 
2. Aspectos Técnicos: A Ciência por trás do Comando
A eficácia de um Modelo de Linguagem de Grande Escala (LLM) na produção de textos jurídicos acessíveis não reside apenas na capacidade da máquina, mas, primordialmente, na qualidade da instrução fornecida pelo utilizador. Esta secção explora a mecânica do prompting e os princípios que garantem a integridade da saída gerada.
 
2.1. O que é um Prompt: A Anatomia da Instrução
Um prompt é muito mais do que uma simples pergunta; é um conjunto de parâmetros que orienta o comportamento estocástico[2] da IA. Para que o profissional do Direito obtenha resultados de alta fidelidade acadêmica, o comando deve possuir uma estrutura robusta, frequentemente dividida em quatro pilares fundamentais:
Persona (Papel): Define quem a IA deve “ser”. No nosso contexto, instruir a IA a agir como um “Professor de Direito com especialidade em linguagem clara” produz resultados drasticamente diferentes de um comando genérico.
Contexto: Fornece as informações de base. Inclui a jurisdição (ex: Direito Brasileiro), o marco normativo (ex: Código Civil) e o público-alvo (ex: cidadãos leigos).
Tarefa (Ação): O verbo de comando. Exemplos: “Simplificar”, “Resumir”, “Traduzir o termo X para linguagem corrente” ou “Estruturar um artigo conforme a NBR 6022”.
Formato: Define a estrutura da resposta (tópicos, texto corrido, tabela comparativa ou formato Markdown).
 
2.2. O Princípio GIGO (Garbage In, Garbage Out) e a Qualidade dos Dados

Um dos conceitos centrais no Prompt Engineering é o princípio GIGO (Garbage In, Garbage Out — “Lixo entra, lixo sai”). Na advocacia, este princípio é crítico: se o profissional fornece uma base de fatos ambígua, uma petição mal redigida ou um comando vago, a IA produzirá uma resposta igualmente medíocre ou juridicamente perigosa.
A qualidade da saída é diretamente proporcional à precisão da entrada. Portanto, a democratização do Direito através da IA exige que o jurista forneça fontes de dados confiáveis (como leis vigentes ou doutrina consolidada) como “contexto de referência” antes de solicitar qualquer simplificação de linguagem.
 
2.3. Anomalias e Limitações: Alucinações e “Preguiça” da IA
Apesar da sua sofisticação, os LLMs apresentam limitações técnicas que podem comprometer a produção científica se não forem monitorizadas:
Alucinações (Alucinação Confiável): Fenômeno em que a IA gera informações factualmente incorretas (como a invenção de um número de acórdão ou uma lei inexistente) com um tom de extrema autoridade. Isto ocorre porque o modelo prioriza a coerência linguística sobre a verdade factual.
Síndrome da Preguiça da IA: Em tarefas longas ou repetitivas (como a análise de grandes processos), o modelo pode começar a fornecer respostas excessivamente simplificadas ou “pular” partes importantes do texto.
Repetição Contextual: A tendência da IA em repetir frases ou estruturas quando o prompt não é suficientemente variado ou quando a janela de contexto está saturada.
 
Compreender estas limitações é o primeiro passo para o que chamamos de “uso crítico da tecnologia”, onde o jurista deixa de ser um mero espectador e passa a ser um curador diligente da informação gerada pela máquina.
 
3. Prompt Engineering Aplicado ao Direito e à Democratização da Linguagem
A transição de uma escrita hermética para uma comunicação jurídica acessível não ocorre de forma automática pelo simples uso da IA. Ela exige a aplicação de técnicas de Prompt Engineering que orientem o modelo a processar o rigor normativo sob uma nova ótica linguística. Nesta secção, detalham-se as metodologias avançadas para a estruturação de comandos aplicados à tradução do “juridiquês”.
 
3.1. Técnicas Essenciais: Few-shot e Chain-of-Thought (CoT)
Para além dos comandos diretos, duas técnicas destacam-se pela capacidade de elevar a qualidade do raciocínio jurídico da máquina:
Few-shot Prompting (Aprendizado com Exemplos): Esta técnica consiste em fornecer à IA alguns exemplos de “tradução” prévia (o texto original em juridiquês seguido da versão simplificada). Ao fornecer exemplos de estilo e tom, o profissional calibra a rede neural para replicar a identidade visual e verbal do seu escritório ou coluna acadêmica, reduzindo drasticamente a necessidade de revisões extensas.
Chain-of-Thought (Cadeia de Pensamento): Fundamental para a análise de decisões judiciais complexas. Em vez de pedir apenas o resumo, instrui-se a IA a “pensar passo a passo” (think step-by-step). Isto obriga o modelo a decompor a fundamentação, o dispositivo e o relatório antes de sintetizá-los, o que mitiga o risco de omissões de pressupostos processuais críticos.
 
3.2. Metodologias para a Tradução do Juridiquês e Acessibilidade
A simplificação da linguagem jurídica através de LLMs deve seguir um fluxo metodológico que garanta que a “tradução” não resulte em perda de substância. O processo sugerido divide-se em três etapas:
Desconstrução: O modelo identifica os conceitos nucleares (ex: “trânsito em julgado”, “efeito suspensivo”).
Equivalência Semântica: A busca por termos da linguagem corrente que possuam o mesmo valor prático para o leigo.
Revalidação Técnica: Um comando de retorno onde a IA verifica se a simplificação ainda respeita a norma legal citada.
 
3.3. Comparativo Prático: Frameworks RTF, PMI e POSSI
A escolha do framework de comando define o nível de sofisticação do conteúdo produzido. Com base nos modelos consolidados nesta pesquisa, apresenta-se a aplicação prática de cada um no contexto de democratização da linguagem:
 
3.3.1. O Uso do RTF para Comunicação Rápida
O modelo RTF (Role, Task, Format) é ideal para a rotina de profissionais liberais que precisam de agilidade. Ao definir o papel (Role) como um “advogado mediador”, o texto gerado assume naturalmente uma postura menos adversarial e mais explicativa, facilitando a compreensão do cliente sobre o andamento processual.
 
3.3.2. O Modelo PMI na Construção de Artigos Acadêmicos
No desenvolvimento de seções teóricas, o framework PMI (Purpose, Method, Information) destaca-se. Ao explicitar o propósito (Purpose) de democratizar o conhecimento, o jurista orienta a IA a evitar citações latinas desnecessárias e a focar na utilidade social do conceito discutido.
 
3.3.3. O Framework POSSI e a Gestão de Workflows Longos
Como o modelo mais robusto (Persona, Objetivos, Suporte, Saída, Interação), o POSSI é a ferramenta de eleição para a criação deste artigo. Ele permite que o autor forneça o suporte (Suporte) — como PDFs de manuais ou jurisprudência — e estabeleça um ciclo de interação (Interação) onde a IA questiona o autor sobre pontos ambíguos antes de finalizar a redação, combatendo a “preguiça da IA” e garantindo a integridade do conteúdo.

3.4. A IA como “Exosqueleto Cognitivo”
Conclui-se que o Prompt Engineering transforma a relação do jurista com a tecnologia. A IA deixa de ser uma ferramenta de “copy-paste” para se tornar um “exosqueleto cognitivo”: uma estrutura que suporta o peso da vasta carga documental e terminológica, permitindo que o profissional se concentre na estratégia jurídica e na empatia comunicacional com o público leigo.
 
4. Aplicações Práticas e Estudo de Caso: A Tradução do “Juridiquês”
A utilidade da Inteligência Artificial (IA) no campo jurídico atinge o seu expoente máximo na fase de execução, onde a teoria do Prompt Engineering se converte em ferramentas de acessibilidade. Esta seção apresenta estudos de caso e modelos de fluxos de trabalho que exemplificam a transição da linguagem hermética para a clareza comunicacional.
 
4.1. Do Hermetismo à Clareza: Exemplo Prático de Tradução
Abaixo, apresenta-se um estudo comparativo de tradução de um trecho processual típico, utilizando o framework POSSI para orientar a IA.
 
Texto Original (Juridiquês):
“Compulsando os autos, verifica-se que a decisão interlocutória proferida em sede de cognição sumária operou a preclusão consumativa, não restando ao agravante qualquer via de irresignação face ao trânsito em julgado formal da matéria.”
 
Comando (Prompt Avançado – Metodologia POSSI):
“Atue como um Professor de Direito especializado em comunicação acessível. O seu objetivo é traduzir o texto jurídico em anexo para um cliente que não possui formação na área. Use uma linguagem empática e direta, evitando termos em latim. Explique o impacto prático desta situação.”
 
Resultado Traduzido (IA com Supervisão):
“Ao analisar o seu processo, percebemos que o juiz já tomou uma decisão sobre esse ponto específico no passado. Como o prazo para contestar essa decisão terminou e não houve recurso na altura certa, não podemos mais tentar alterá-la agora. Na prática, este assunto está encerrado dentro do processo e precisamos de nos focar nos próximos passos.”
 
4.2. Workflows Automatizados para Profissionais Liberais
A automação de fluxos de trabalho (workflows) permite que o profissional liberal ganhe escala na produção de conteúdos informativos sem sacrificar o atendimento personalizado. Com base nos manuais de Prompt Engineering analisados, sugerem-se dois modelos:
 
Workflow de Triagem de Publicações:
Entrada: Cópia de um acórdão ou decisão recente.
Processamento (IA): Extração da tese principal e criação de um resumo em três níveis (técnico para o advogado, executivo para o cliente e pedagógico para as redes sociais).
Saída: Documento estruturado para revisão humana.
 
Agentes de Resposta a Clientes:
Entrada: Dúvida enviada pelo cliente via e-mail ou aplicação de mensagens.
Processamento (IA): O modelo utiliza o contexto das peças processuais (carregadas via upload de documentos) para redigir uma explicação simples sobre o estado atual do caso.
Controle: O advogado faz a curadoria final para evitar o “Paradoxo do Advogado Cego”.
 
4.3. Chatbots Jurídicos e a Democratização da Informação
A implementação de chatbots baseados em LLMs em sites de escritórios e plataformas de profissionais liberais atua como uma primeira camada de democratização. Ao contrário dos sistemas de FAQ (Perguntas Frequentes) estáticos, estes agentes permitem:
Interatividade: O leitor pode pedir clarificações sobre termos que ainda não compreendeu.
Personalização: A IA ajusta o exemplo ao contexto de vida do utilizador (ex: explicar um direito do consumidor usando um exemplo de compra online).
 
4.4. A Importância da Curadoria Humana na Aplicação Prática
Apesar da alta eficácia demonstrada nos exemplos acima, a aplicação prática reforça que a IA não substitui o julgamento profissional. Em todos os casos analisados, a intervenção humana foi necessária para:
Validar se a simplificação não eliminou uma nuance jurídica vital (ex: a diferença entre “anulação” e “nulidade”).
Garantir que o tom da mensagem está alinhado com a estratégia processual adotada.
Prevenir que alucinações técnicas (citação de artigos de lei revogados) cheguem ao conhecimento do público.
 
5. Limitações, Riscos e Ética: O Uso Crítico da Tecnologia
A integração da Inteligência Artificial (IA) no quotidiano jurídico não está isenta de riscos significativos. Para que a democratização da linguagem não resulte em desinformação ou prejuízo processual, o profissional deve compreender as fronteiras éticas e técnicas da ferramenta. Esta seção aborda os principais obstáculos identificados na literatura e na prática forense.
 
5.1. O Paradoxo do Advogado Cego
Um dos riscos mais latentes na utilização de LLMs é o que a doutrina e os manuais de Prompt Engineering denominam como o “Paradoxo do Advogado Cego”. Este fenômeno ocorre quando o profissional, deslumbrado pela fluência e autoridade do texto gerado pela IA, abdica do seu dever de vigilância e revisão.
A confiança cega na ferramenta pode levar à submissão de peças processuais com premissas falsas ou interpretações legais equivocadas, ou uso de uma decisão inexistente. O jurista deve, portanto, instruir a IA a questionar premissas, a expressar incerteza (através de comandos de sistema robustos) e exigir o fornecimento das fontes pesquisadas e informadas, garantindo que o modelo atue como um assistente, e não como o decisor final.
 
5.2. Alucinações Confiáveis e a Integridade dos Dados
Como discutido anteriormente, as alucinações são subprodutos da natureza probabilística dos modelos. No Direito, uma alucinação pode significar a invenção de uma súmula ou a citação de um artigo revogado.
GIGO e Responsabilidade: O princípio Garbage In, Garbage Out reforça que se o comando for vago ou a base de dados for lixo, a saída será lixo.
Mitigação: É imperativo que o utilizador utilize técnicas de Grounding (ancoragem), fornecendo o texto da lei ou do acórdão como contexto obrigatório no prompt, limitando a capacidade de invenção da IA.
 
5.3. Vieses Algorítmicos e Ética na Escrita
Os modelos de IA são treinados em dados históricos que podem conter preconceitos estruturais. Ao utilizar a IA para simplificar o “juridiquês”, existe o risco de a ferramenta replicar estereótipos ou utilizar uma linguagem que, embora simples, seja discriminatória ou insensível.
Estratégias de Inclusão: O uso de prompts inclusivos e a configuração de System Prompts que exijam neutralidade e respeito à diversidade são passos essenciais para uma escrita jurídica ética e moderna.
 
5.4. Diretrizes Éticas: A Recomendação n.º 001/2024 da OAB[3]
No Brasil, a Ordem dos Advogados do Brasil (OAB), através da Recomendação n.º 001/2024, estabeleceu marcos claros para o uso da IA. A norma enfatiza:
Natureza Auxiliar: A IA deve ser utilizada estritamente como ferramenta de suporte à atividade intelectual do advogado.
Transparência: A necessidade de informar, quando pertinente, o uso de ferramentas automatizadas na elaboração de conteúdos.
Responsabilidade Indelegável: O profissional é o único responsável civil e eticamente pelo conteúdo das peças produzidas, independentemente do auxílio tecnológico.
5.5. Prevenindo a “Preguiça” e a Injeção de Prompts
Em artigos extensos ou análises complexas, a “Síndrome da Preguiça da IA” pode levar à omissão de detalhes cruciais. Além disso, o profissional deve estar atento à “Injeção de Prompts” (Prompt Injection), onde comandos ocultos em documentos de terceiros podem tentar manipular a resposta do seu modelo. O design defensivo de prompts (como travar a identidade da persona e definir condições estritas de recusa) é a proteção técnica necessária para manter a integridade do conteúdo jurídico.
 
Considerações Finais
A integração da Inteligência Artificial Generativa no campo jurídico representa um divisor de águas não apenas na produtividade, mas, sobretudo, na forma como o Direito comunica com a sociedade. O presente estudo demonstrou que a barreira do “juridiquês” pode ser transposta através do uso estratégico do Prompt Engineering, permitindo que o conhecimento técnico-científico seja traduzido para uma linguagem clara e inclusiva sem perder o seu rigor necessário.
Conclui-se que os modelos de linguagem de grande escala (LLMs), quando operados sob frameworks robustos como o POSSI ou o PMI, funcionam como um verdadeiro “exosqueleto cognitivo” para o profissional liberal. A técnica de prompting deixa de ser uma mera interação de pergunta e resposta para se tornar uma metodologia de curadoria e refinamento de conteúdo, capaz de ampliar o alcance da informação jurídica e fortalecer o acesso à justiça.
Contudo, a pesquisa também evidenciou que a tecnologia não é infalível. Riscos como o “Paradoxo do Advogado Cego” e as alucinações confiáveis exigem que a autonomia da IA seja sempre mitigada pela supervisão humana diligente. A ética, conforme preconizado pela Recomendação n.º 001/2024 da OAB, deve ser o norteador de qualquer implementação tecnológica na advocacia.
Em última análise, o futuro da escrita jurídica reside na simbiose entre a capacidade de processamento da máquina e o juízo crítico do jurista. O domínio das técnicas de engenharia de comandos é, portanto, uma competência indispensável para o advogado contemporâneo que deseja atuar como um agente de transformação social e democratização do conhecimento jurídico.
 
Referências Bibliográficas
ANDRADE, Otávio Morato de. O uso de Inteligência Artificial nos escritórios de advocacia: aspectos éticos e práticos. Revista Juscontemporânea do TRF2, Rio de Janeiro, v. 2, p. 1-23, jan. 2022. Disponível em: https://lexcultccjf.trf2.jus.br/index.php/revistajuscontemporanea/article/view/318. Acesso em: 11 jan. 2026.
CLIO. Legal Trends Report 2024. Disponível em: https://www.clio.com/resources/legal-trends/2024-report/. Acesso em: 11 jan. 2026.
NIST. AI Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology, 2023. Disponível em: https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf. Acesso em: 11 jan. 2026.
NUNES JÚNIOR, Amandino Teixeira; RUBINGER, Carlos; MARQUES, Victor Hugo Dourado. O impacto da inteligência artificial na advocacia brasileira: benefícios e desafios no setor jurídico. Revista Ibero-Americana de Humanidades, Ciências e Educação, São Paulo, v. 9, n. 05, maio 2023. Disponível em: https://periodicorease.pro.br/rease/article/view/16691. Acesso em: 11 jan. 2026.
ORDEM DOS ADVOGADOS DO BRASIL. Conselho Federal. Recomendação n. 001/2024. Dispõe sobre o uso de inteligência artificial na advocacia. Brasília, DF: OAB, 14 nov. 2024. Disponível em: https://diario.oab.org.br/pages/materia/842347. Acesso em: 11 jan. 2026.
POSSI, Marcus. Domínio em Prompting Engineering. Organizado por Herval Forny. Ed. Ecthos CD. 2025.
QUEIROZ, Júlia de Oliveira; GONÇALVES, Jonas Rodrigo; COSTA, Danilo da. A questão digital: a inteligência artificial e o futuro da advocacia. Revista JRG de Estudos Acadêmicos, v. 7, n. 15, p. 1-15, 2024. Disponível em: https://revistajrg.com/index.php/jrg/article/view/1398. Acesso em: 11 jan. 2026.
THOMSON REUTERS INSTITUTE. How legal professionals see the possibilities of generative AI in law. 2024. Disponível em: https://www.thomsonreuters.com/en/c/future-of-professionals?fbclid=IwY2xjawPRFYdleHRuA2FlbQIxMABicmlkETFoYXRmSWR4SG52OGxRMlg2c3J0YwZhcHBfaWQQMjIyMDM5MTc4ODIwMDg5MgABHhmofLo-nXcEkD6WzWpuIt0yCMR5BsksyA28YXrod-JthVcNQPacRNFbSQwr_aem_4vtK_lDy6pmQ9lC6gevPgQ. Acesso em: 11 jan. 2026.
WOLTERS KLUWER. Future Ready Lawyer 2023. 2023. Disponível em: https://www.wolterskluwer.com/en/know/future-ready-lawyer-2023. Acesso em: 11 jan. 2026.
 
Apêndice A: Checklist de Qualidade do Prompt Jurídico
Este guia deve ser utilizado pelo profissional antes de submeter qualquer instrução a um Modelo de Linguagem de Grande Escala (LLM), garantindo que a resposta seja precisa, ética e segura.
1. Estrutura do Comando
[ ] Persona Definida: A IA sabe quem deve ser? (Ex: “Atue como um Professor de Direito especializado em linguagem clara”).
[ ] Público-Alvo: O destinatário da mensagem foi identificado? (Ex: “Escreva para um cidadão leigo”).
[ ] Contexto Normativo: A jurisdição (Direito Brasileiro) e as leis de referência foram citadas?
[ ] Tarefa Específica: O comando usa verbos de ação claros? (Ex: “Traduza”, “Sintetize”, “Extraia”).
2. Parâmetros de Segurança e Ética
[ ] Cláusula de Grounding (Ancoragem): Instruiu a IA a basear-se apenas no texto fornecido?
[ ] Gestão de Alucinação: O comando contém a instrução “se não souber ou a informação não estiver no texto, declare que não sabe”?
[ ] Restrições de Linguagem: Foram proibidos termos em latim ou jargões técnicos excessivos?
[ ] Privacidade: Verificou se não existem dados sensíveis ou nomes reais de partes (LGPD) no prompt enviado?
3. Formatação e Revisão
[ ] Formato de Saída: O formato foi solicitado? (Ex: “Markdown”, “Lista de tópicos”, “Tabela”).
[ ] Autoavaliação: O prompt pede que a IA verifique se o texto gerado é realmente simples de entender?
[ ] Revisão Humana: Existe o lembrete de que o resultado deve ser validado tecnicamente pelo autor?
 
Apêndice B: Glossário de IA para Juristas e Profissionais Liberais
Breve guia terminológico para nivelar o conhecimento técnico necessário ao uso crítico das ferramentas de IA Generativa.
 
Termo
Definição
LLM (Large Language Model)
Modelo de inteligência artificial treinado em bilhões de palavras para prever e gerar texto em linguagem natural.
Prompt
A instrução ou pergunta enviada à IA para gerar uma resposta.
Prompt Engineering
Disciplina de estruturar comandos de forma estratégica para obter resultados de alta qualidade.
Token
A unidade mínima de processamento da IA (palavras ou pedaços de palavras). 1.000 tokens equivalem a cerca de 750 palavras.
Janela de Contexto
O limite de memória de curto prazo da IA; o volume de texto que ela consegue considerar de uma só vez.
Alucinação
Erro factual gerado pela IA com uma estrutura linguística convincente, mas sem base na realidade.
GIGO (Garbage In, Garbage Out)
Princípio técnico: se a instrução de entrada for ruim (lixo), a resposta de saída será igualmente ruim.
Grounding (Ancoragem)
Técnica de fornecer documentos reais à IA para que ela limite a sua “criatividade” aos factos ali contidos.
Prompt Injection
Tentativa maliciosa de manipular o comportamento da IA através de comandos ocultos em documentos ou inputs.
 
Apêndice C: Biblioteca de Templates de Prompts (Copia e Cola)
Estes modelos podem ser adaptados para o uso diário em escritórios de advocacia ou por profissionais liberais.
1. Tradução de Decisões Judiciais (Framework POSSI)
Persona: Atue como um tradutor jurídico focado em acessibilidade e clareza.
Objetivo: Explicar o despacho/decisão abaixo para um cliente que não entende de Direito.
Suporte: [COLAR TEXTO DA DECISÃO AQUI]
Saída: Gere um resumo curto (3 frases) seguido de uma lista de “Próximos Passos” para o cliente.
Interação: Pergunte-me se deseja que eu aprofunde algum ponto técnico antes de finalizar.
2. Resumo de Jurisprudência para Artigo (Framework RTF)
Role (Papel): Assistente de pesquisa acadêmica.
Task (Tarefa): Identificar a tese vencedora e os fundamentos legais deste acórdão.
Format (Formato): Estruture em uma tabela comparativa com as colunas: Voto Relator, Divergência (se houver) e Decisão Final.

3. Simplificação de Conceitos Doutrinários (Framework PMI)
Purpose (Propósito): Democratizar o conhecimento jurídico num post para redes sociais.
Method (Método): Use analogias do quotidiano e evite palavras em latim.
Information (Informação): O conceito a ser explicado é o de [INSERIR CONCEITO, ex: Preclusão].
4. Estruturação de Artigo Acadêmico (Metodologia ITPR)
Instrução: Ajude-me a redigir a introdução do meu artigo. Siga o método ITPR: Impacto (contexto atual), Tese (minha ideia principal), Problema (a pergunta que quero responder) e Roteiro (o que será tratado no texto). Use um tom formal e científico.


[1] Garbage IN Garbage OUT – a qualidade dos dados de entrada influencia a qualidade dos dados de saída
[2] Um processo estocástico é uma sequência de variáveis aleatórias que evoluem ao longo do tempo, usada para modelar fenômenos com incerteza ou variabilidade. Ele representa situações em que o resultado futuro depende tanto de fatores previsíveis quanto de elementos aleatórios.
[3] https://diario.oab.org.br/pages/materia/842347


Herval Madeira Forny. Bacharel em Economia e Advogado. Certificado PMP® (Project Management Professional). Especialista em Holding Familiar. Mestrando em Master in Business and AI. Aluno de MBA em Transformação de Negócios com IA Generativa. Revisor técnico da obra “Domínio em Prompt Engineering”.

Lorenzo Martins Pompílio da Hora. Pós-Doutor em Filosofia pela Faculdade de Filosofia da Universidade do Estado do Rio de Janeiro.  Professor Titular de Direito Civil, na Faculdade Nacional de Direito, da UFRJ.