Por: Dierle Nunes* –
O uso da inteligência artificial no campo do Direito ainda é recente, mas o estranhamento que existia há poucos anos, quando predominavam apenas as IAs preditivas (analíticas), antes do surgimento dos grandes modelos de linguagem, que embasam o ChatGPT, diminuiu significativamente.
Isso não significa que o avanço exponencial dessa tecnologia de propósito geral, que oferta respostas probabilísticas com bastante eficiência em inúmeros campos, não continue surpreendendo. Em especial, pelo investimento brutal que as grandes empresas de tecnologia promovem para novas descobertas e novos usos.
A cada semana, vemos novas “ferramentas” e vem se expandindo a percepção de que o conhecimento desse campo se tornou essencial a todos os profissionais de qualquer área, até mesmo porque o somatório humano + máquina auxilia enormemente na eficiência e qualidade em inúmeros campos.
A popularização se deu inicialmente pelo uso direto das ferramentas (como ChatGPT, Gemini e Claude) mediante uma sequência de simples comandos (prompts) para obtenção de respostas com alto grau de verossimilhança. A própria OPEN Ai desenvolveu instruções simples para uma boa engenharia de prompts [1].
De lá para cá, passamos para a era dos assistentes, com as customizações de IAs generativas para ofertar soluções especificas para questões individualizadas, com prompts pré-programados: assistente de pesquisa [2], elaborador de ementas de julgados [3] etc.
Os tribunais pátrios estão investindo significativamente na personalização de ferramentas tecnológicas para otimizar suas atividades. Como exemplo, desde fevereiro de 2025, o STJ implementou o projeto Logos [4], que utiliza o GPT-4o para auxiliar assessores na análise de recursos especiais, HCs etc. A ferramenta oferece um “Painel de Controle” que acessa automaticamente os autos e os organiza em suas principais peças. Com comandos simples (prompts), o modelo pode gerar relatórios sobre o recurso, fornecer resumos das peças processuais e identificar trechos específicos relevantes para o juízo de admissibilidade, destacando-os diretamente nas peças indicadas.
Em sentido análogo, a Justiça do trabalho estruturou o projeto ChatJT [5], ferramenta de inteligência artificial desenvolvida com base no GEMINI para otimizar consultas, automatizar fluxos de trabalho e auxiliar na tomada de decisões estratégicas. Adaptado às necessidades do Judiciário, o sistema permite acesso facilitado a leis e jurisprudência por meio do Sistema Falcão, entre outros usos.
No entanto, o projeto mais ousado é o ASSIS que promete a personalização de decisões em conformidade com o banco de dados de cada magistrado [6]. Se trata de um assistente jurídico de IA Gen desenvolvido pelo TJRJ, com o objetivo de auxiliar magistrados na elaboração de decisões e minutas de sentenças para processos judiciais de primeira instância. Utilizando o GPT-4o, o sistema pode gerar automaticamente textos jurídicos com base nos documentos armazenados no PJe, permitindo a análise detalhada das peças e a extração de informações. Além disso, o Assis conta com acesso a um acervo de sentenças previamente proferidas, garantindo maior precisão e alinhamento com a jurisprudência e as práticas judiciais do tribunal.
Ainda não podemos esquecer que especialmente a partir do ano corrente se inicia para acesso geral a era dos agentes. A OPEN AI, fabricante do ChatGPT, divulgou a disponibilização de alguns novos agentes de Inteligência Artificial, como o Operator [7].
Um recente relatório da Mckinsey indica que 2025 será um ano propenso ao uso destes agentes para executar tarefas complexas e multietapas, indo além da geração de conteúdo. Eles planejam, colaboram e atuam em ecossistemas digitais [8].
Como explica Noam Kolt [9] os agentes se diferenciam dos usos já conhecidos das IAs generativas, pois “enquanto os modelos de linguagem são ‘copilotos’ que podem produzir conteúdo útil mediante solicitação, os agentes de IA são ‘pilotos automáticos’ que podem tomar ações de forma independente para atingir objetivos complexos em nome dos usuários”.
Estes novos colaboradores podem resolver desde problemas domésticos (v.g. compras de supermercado), até problemas sofisticados em áreas especializadas, mas seu uso ainda é embrionário na área jurídica.
Todos os exemplos de usos acima indicados demonstram que a IA Gen já se tornou onipresente na nossa área, de modo que além da preocupação óbvia com a essencialidade do letramento digital para evitar riscos já diagnosticados [10], precisamos explorar outros dilemas, tais como: a) o uso recorrente de IA por profissionais em nossa área compromete sua capacidade crítica? b) qualquer supervisão humana das respostas da IA é suficiente para garantir qualidade e respeito aos direitos fundamentais processuais?. O texto visa analisar essas preocupações.
Armadilhas
Já tive oportunidade de falar anteriormente sobre os riscos do viés de automação [11], que ocorre pela propensão de favorecer sugestões de sistemas automatizados de tomada de decisão. Isso ocorre quando o humano sobrevaloriza a resposta da máquina e passa a não refletir acerca da correção de seus resultados. Tal viés conduz as pessoas a não reconhecerem quando os sistemas automatizados erram.
Isso conduz à reflexão imediata de riscos que os projetos acima indicados, já em uso pelo Poder Judiciário pátrio, podem promover.
O problema se agrava nos modelos de IA Gen que possuem uma característica intrínseca: a alucinação. A alucinação da IA refere-se ao fenômeno em que um modelo gera informações imprecisas, irreais ou fabricadas, apresentando-as como se fossem verdadeiras. Esse problema ocorre porque os modelos generativos, como o GPT e o Gemini, não acessam diretamente fontes de dados em tempo real, mas baseiam suas respostas em padrões estatísticos extraídos de seus treinamentos.
Como resultado, podem criar textos convincentes, porém incorretos, incluindo fatos inexistentes, citações fictícias ou interpretações distorcidas. No contexto jurídico e científico, as alucinações representam um risco significativo, pois podem comprometer a confiabilidade das decisões automatizadas.
Já se tornaram notórios no campo do Direito casos de advogados [12] e magistrados [13] que caíram nas armadilhas das alucinações, sendo que os casos mais recorrentes foram de utilização de julgados inventados pela máquina. Com um devido treinamento IA tais riscos podem ser facilmente mitigados.

Do mesmo modo, a adoção de um conjunto de dados limpos e estruturados para treinar modelos customizados pelas instituições, por equipes internas multidisciplinares, reduz as chances das alucinações, mas não podem induzir a ausência de preocupação com sua ocorrência, tornando o monitoramento contínuo essencial.
Percebido este aspecto e constatando que tendemos a acreditar nas respostas das IAs, especialmente por apresentarem conteúdos com alto índice de verossimilhança, remanesce a preocupação com a preservação de nossa capacidade reflexiva, mesmo após o treinamento de uso. Percebam que a manutenção da capacidade crítica para o exercício de atividades interpretativas na área jurídica é essencial para a mantença dos direitos inerentes ao devido processo e à própria perquirição da resposta jurídica correta.
Infelizmente, os estudos já empreendidos demonstram que a dependência excessiva da IA na prática jurídica pode comprometer a capacidade reflexiva dos profissionais, resultando em uma diminuição da autonomia cognitiva e na substituição da análise crítica pela aceitação irrefletida das respostas geradas por IA.
Han adverte que a IA trabalha essencialmente com dados do passado, sendo incapaz de compreender eventos e gerar pensamento genuinamente novo, o que pode limitar a criatividade e a adaptação diante de cenários inéditos [14]. No contexto jurídico, essa limitação é especialmente crítica, pois a interpretação jurídica exige não apenas a aplicação de leis e julgados, mas também a capacidade de adaptação às mudanças sociais, econômicas e culturais.
O estudo conduzido por Lee et al. [15] analisou como a IA Gen afeta o pensamento crítico dos trabalhadores do conhecimento, revelando que o uso dessas ferramentas reduz o esforço cognitivo percebido, e, por conseguinte, pode gerar uma dependência excessiva da tecnologia. Os pesquisadores identificaram que, à medida que os profissionais confiam mais na IA, tendem a aplicar menos pensamento crítico e a verificar menos as informações, o que pode comprometer a qualidade das decisões jurídicas. Além disso, o estudo evidencia que a IA não elimina o pensamento crítico, mas altera sua natureza, tornando-o mais focado na verificação e integração de informações, em vez da formulação independente de argumentos e interpretações.
Outro achado relevante da pesquisa indica que a confiança na IA tem uma relação inversa com o nível de pensamento crítico: quanto maior a confiança na IA, menor a tendência dos profissionais em revisar e questionar suas respostas. Esse fenômeno pode levar à “convergência mecanizada”, onde diferentes operadores jurídicos passam a depender das mesmas respostas geradas pela IA, reduzindo a diversidade de interpretações e a inovação no pensamento jurídico. Como implicação prática, os pesquisadores sugerem que as ferramentas de IA sejam projetadas para incentivar o pensamento crítico, garantindo que os usuários tenham incentivos para revisar e interpretar as respostas geradas.
Supervisão
Por fim, o estudo destaca a necessidade de treinamento contínuo para profissionais que utilizam IA em suas atividades, a fim de manter e aprimorar sua capacidade de análise crítica.
Portanto, embora a IA possa ser uma ferramenta poderosa para otimizar processos, seu uso irrefletido pode comprometer a integridade do raciocínio jurídico, tornando indispensável a supervisão humana e a educação contínua dos profissionais que interagem com essas tecnologias [16].
E aí se apresenta a segunda preocupação deste texto: a supervisão humana efetiva [17].
A supervisão humana é concebida como uma salvaguarda para prevenir julgamentos automatizados inapropriados e proteger os afetados por decisões algorítmicas, especialmente na prática jurídica. No desenvolvimento de projetos de IA, a supervisão ocorre em três níveis principais: planejamento e treinamento, monitoramento contínuo e auditoria pós-implementação.
No planejamento, humanos selecionam e refinam os dados de treinamento, evitando vieses e garantindo que o modelo aprenda de forma alinhada aos objetivos éticos e regulatórios. Durante o monitoramento, especialistas avaliam continuamente as respostas da IA, ajustando parâmetros e corrigindo falhas antes que afetem processos críticos. Já na auditoria, revisões periódicas garantem transparência e corrigem possíveis impactos negativos não detectados no uso cotidiano [18].
No contexto jurídico, a utilização da IA, como exemplificado acima, é ilimitada, mas necessitaria de uma efetiva supervisão humana, de modo a garantir que a participação dos atingidos das decisões, de um lado, e o exercício decisório pelo julgador, do outro, não se limite a uma análise da máquina que esvazie o contraditório e o devido processo.
A decisão final sempre deveria ser humana, pois a IA não possui discernimento ético nem a capacidade de interpretar nuances do direito e esteja em conformidade com normas jurídicas vigentes, com destaque para a nova redação da resolução 332 do CNJ (v.g. art. 34).
Supervisionar a IA não deve se limitar a uma leitura passiva e acrítica de suas respostas, mas sim envolver uma análise reflexiva e criteriosa, garantindo que a interação com a máquina resulte em um aprimoramento qualitativo da atividade, sem desprezar a análise de peças para conferência, ampliando a precisão e a confiabilidade dos resultados.
Casos de uso recentes mostram que falhas nesse controle podem levar a erros jurídicos graves, como a já indicada citação de julgados inexistentes, a desconsideração de trechos importantes dos autos (v.g. argumentos ou provas) e a inadmissão equivocada de recursos, que podem comprometer a credibilidade de um profissional ou até impactar injustamente processos judiciais, pela máquina desprezar em sua “janela de contexto” [19] aspectos essenciais.
Para tornar a supervisão mais eficiente, recomenda-se adotar um modelo híbrido de supervisão. Isso significa equilibrar o uso da IA para tarefas operacionais repetitivas e para tarefas menos relevantes, restringindo-se seu uso para a atividade fim (v.g. julgar). Profissionais humanos devem intervir genuinamente em momentos críticos e análises mais complexas.
O futuro da interação humano-IA (HCI) na prática jurídica depende de dois pilares: capacitação contínua e monitoramento genuíno. Profissionais do direito precisam ser treinados para interagir de forma eficaz com a IA entendendo suas limitações e verificando seus resultados e devem ser criadas equipes especificas de monitoramento, diversas das que o projetaram, para garantir real accountability.
Uma estratégia regulatória poderia ser um caminho relevante, mas a aplicação das normas existentes tem se mostrado limitada e não impede que instituições de justiça implementem modelos de IA sem oferecer treinamento adequado aos usuários.
Ademais, causa preocupação a ausência de diálogo com a OAB na implementação de projetos no Judiciário, na medida que seguramente ocorrerão impactos essenciais na participação dos cidadãos nos processos judiciais.
Há anos insisto na necessidade de compreender a virada tecnológica no Direito [20], permitindo uma visão adequada das interações entre as tecnologias digitais e o sistema jurídico para seu aprimoramento. Os benefícios da IA devem ser assimilados de forma a promover uma colaboração eficiente entre humanos e máquinas, garantindo que essa integração resulte em melhorias, e não em uma dependência acrítica.
[1] https://platform.openai.com/docs/guides/prompt-engineering
[2] https://chatgpt.com/g/g-UfFxTDMxq-askyourpdf-research-assistant
[3] https://chatgpt.com/g/g-WCcPZ176I-ementa-cnj
[4] https://encurtador.com.br/v3qd6
[5] https://encurtador.com.br/vzUKw
[6]https://encurtador.com.br/ogxkZ
[7] https://openai.com/index/introducing-operator/
[8] https://encurtador.com.br/iPMIt
[9] KOLT, Noam. Governing AI Agents. Notre Dame Law Review, Vol. 101, Apr./ 2024.
[10] Como vieses e alucinações
[11] https://encurtador.com.br/BDsIC
[12][12] https://www.uol.com.br/tilt/noticias/redacao/2023/05/28/advogado-chatgpt.htm
[14] HAN. Não coisas: reviravoltas do mundo da vida. 2022. p. 81.
[15] LEE, Hao-Ping et al. The impact of generative ai on critical thinking: self-reported reductions in cognitive effort and confidence effects from a survey of knowledgeworkers. 2025.
[16] Cit.
[17] https://www.conjur.com.br/2021-jun-25/nunes-supervisao-humana-decisoes-ia-reduz-riscos/
[20] NUNES, Dierle. Virada Tecnológica no Direito Processual e etapas do emprego da tecnologia no direito processual: seria possível adaptar o procedimento pela tecnologia? Inteligência Artificial e Direito Processual. 2020.
- Dierle Nunesé sócio do escritório do Camara, Rodrigues, Oliveira & Nunes Advocacia (CRON Advocacia), doutor em Direito Processual, professor na PUC Minas e UFMG, membro da Comissão de Juristas que elaborou o anteprojeto de reforma do Código Civil e que assessorou na elaboração do CPC/2015 e coordenador do núcleo de estudos de Inteligência Artificial no Direito da OAB/MG.
Fonte: https://www.conjur.com.br/2025-mar-10/ia-generativa-no-judiciario-brasileiro-realidade-e-alguns-desafios/
Imagem: Rawpixel.com/Freepix