top of page
250204-Ornitorrinco-Home-IA 2_edited.jpg

Justiça algorítmica

O debate sobre o uso de inteligência artificial (IA) pelo Judiciário brasileiro como instrumento auxiliar na confecção de decisões e sentenças tem se intensificado, sobretudo diante do aumento de episódios nos quais são noticiadas alucinações da ferramenta que, por exemplo, cria jurisprudências ou julgados inexistentes. Não são poucos os exemplos recentes: decisões judiciais e recursos elaborados com o auxílio de IA que citam precedentes fictícios, magistrados e advogados que se apoiam em informações falsas geradas por ferramentas de IA, e pedidos de anulação de sentenças sob a alegação de terem sido escritas por máquinas se multiplicam.
Apesar das questões que circundam sua implementação, a introdução de IA no Judiciário brasileiro já é uma realidade, com múltiplos sistemas em operação para triagem, agrupamento de casos semelhantes, análise
preditiva e mesmo redação de minutas de decisões.

25052-Ornitorrinco-IA_.png
Silicon Valley 2.webp

 Vale do Silício, 1957. Foto: Wayne Miller/Magnum Photos

Deve-se questionar até que ponto as distorções tecnológicas são de fato inovações e não um reflexo meramente operacional de práticas já corriqueiras do próprio Judiciário. 

O Conselho Nacional de Justiça monitorou o uso de IA no Judiciário em 2024 e identificou 140 projetos desenvolvidos em 94 órgãos da Justiça – um crescimento de 26% em relação a 2022.

241101-Ornitorrinco-Infograficos-11.png

A principal justificativa dos tribunais para a adoção da IA é a busca por eficiência. Entre as principais atividades automatizadas, estão:

251008-Ornitorrinco-Infograficos-mobile_Justiça algorítmica 1.png

O Poder Judiciário tem também utilizado outro tipo de tecnologia artificial: os Modelos de Linguagem em Grande Escala (LLMs), inteligências treinadas para processar grandes volumes de texto e gerar respostas e documentos coesos. Seu uso tem se expandido para atividades jurisdicionais, incluindo tarefas como processar e julgar ações judiciais, ou seja, o algoritmo se sobrepõe ao trabalho e à atividade humana, atuando como juiz.
 

Dentre os riscos do uso de LLMs estão:

241101-Ornitorrinco-Infograficos-12.png

Ao aprender com decisões anteriores, muitas destas marcadas por vieses históricos e desigualdades institucionais, os algoritmos tendem a perpetuar erros e distorções estruturais do sistema de justiça criminal. Isso significa que padrões discriminatórios, como a presunção de culpa do réu e a valorização do discurso policial em detrimento de versões da defesa, podem ser ainda mais cristalizados e naturalizados por meio da automação. 

A suposta neutralidade dos modelos matemáticos se desfaz quando se observa que a base de dados utilizada para “treiná-los” já reflete desigualdades que foram sistematicamente institucionalizadas. O efeito das decisões automatizadas no Judiciário é ainda mais preocupante quando se considera a relação entre a presunção de culpabilidade e a replicação de padrões decisórios. A presunção de culpa do réu opera como um princípio estruturante, conduzindo todas as fases do processo de maneira pré-determinada, de modo que fase após fase a verdade policial é reforçada, pelo crivo do judiciário. A IA, ao ser alimentada com documentos judiciais que já incorporam essa lógica, tende a reproduzi-la como uma norma implícita, dificultando ainda mais a quebra dessa racionalidade.
 

artificial-intelligence-in-criminal-justice-3_edited.jpg

A discussão sobre IA no Judiciário não pode ser dissociada de uma reflexão mais ampla sobre as tradições e racionalidades que estruturam nosso sistema de justiça. A inovação tecnológica, longe de ser neutra, pode aprofundar problemas antigos – especialmente quando reforça
a  presunção de culpabilidade sobre o direito de defesa.

Imagem: Carlow University

Indicações:

Marilha Gabriela
Reverendo Garau

Daniel Edler, Pablo Nunes, Thalita G. L. Lima.

bottom of page