Nos últimos anos, a presença da tecnologia no campo jurídico deixou de ser uma tendência para se tornar realidade. Processos digitais, audiências virtuais, softwares de jurimetria, plataformas de mediação online e, mais recentemente, algoritmos de inteligência artificial que sugerem decisões judiciais. À primeira vista, tudo parece apontar para um futuro mais eficiente, ágil e moderno.
Mas há uma pergunta incômoda, que raramente é feita: tecnologia para quem?
A digitalização do Judiciário e o uso de plataformas tecnológicas foram celebrados como avanços democráticos, especialmente durante a pandemia. De fato, a virtualização evitou a paralisia completa do sistema e ampliou a velocidade de certos procedimentos.
Contudo, esse processo também evidenciou uma realidade preocupante: milhões de brasileiros sequer têm acesso estável à internet ou não possuem a alfabetização digital necessária para lidar com sistemas jurídicos online1. Para quem depende de um celular pré-pago ou mora em regiões sem conectividade adequada, o direito virtualizado pode significar, na prática, a ausência completa de justiça.
Enquanto isso, grandes escritórios de advocacia e empresas de tecnologia jurídica investem em ferramentas de ponta que cruzam dados, preveem decisões e produzem petições automatizadas. As propostas tecnológicas são voltadas majoritariamente para grandes empresas e seus interesses; os softwares são pensados para a defesa de grandes corporações, e não para atender pessoas em vulnerabilidade ou pequenos escritórios. O abismo entre os que acessam a “justiça 4.0” e os que lutam por uma audiência presencial no fórum mais próximo se aprofunda.
Em um país marcado por profundas desigualdades sociais, raciais e econômicas como o Brasil, a incorporação tecnológica no Direito, da forma como está sendo conduzida, atua muito mais como um mecanismo de sofisticação da exclusão do que como um vetor de inclusão genuína. A princípio, a promessa era de inclusão: maior velocidade, redução de custos e transparência. No entanto, na prática, o que se observa é a criação de um sistema de dois andares. No andar superior, estão aqueles que já tinham acesso à justiça: grandes escritórios, corporações e cidadãos com alto grau de alfabetização digital e conectividade. Para esse grupo, a tecnologia cumpre sua promessa, tornando os processos ainda mais ágeis e poderosos por meio de ferramentas de IA (Inteligência Artificial) e análise de dados. No andar inferior, encontram-se os historicamente excluídos: a população de baixa renda, os idosos, pessoas em áreas rurais e com pouca instrução digital. Para eles, a suposta “porta de entrada” digital transformou-se em uma nova e complexa barreira. A exclusão deixa de ser apenas econômica ou geográfica e torna-se digital e técnica. A pessoa pode ter um direito legítimo, mas esbarrará na impossibilidade de navegar por um sistema intuitivo, de ter internet estável para uma audiência virtual ou de sequer compreender a linguagem técnica de uma plataforma. Portanto, a tecnologia não está, por si só, promovendo inclusão, ela está otimizando o acesso para quem já o tinha e criando obstáculos para quem já era vulnerável. A exclusão, antes evidente nas longas filas físicas e na burocracia incompreensível, agora se sofistica, escondendo-se atrás de telas de login, exigências de banda larga e algoritmos incompreensíveis. A modernização, sem políticas públicas paralelas de educação digital e garantia de acesso, corre o risco de ser apenas um novo capítulo na história da desigualdade brasileira, agora com um “verniz” de inovação.
A tecnologia, ao contrário do que se costuma dizer, não é neutra. Ela carrega os valores, as escolhas e os preconceitos de quem a produz e de quem a opera. No campo jurídico, isso se traduz em algoritmos que reproduzem desigualdades raciais, de classe e de gênero. Sistemas de IA (Inteligência Artificial) treinados com dados históricos de decisões judiciais podem reforçar padrões discriminatórios, muitas vezes invisíveis, mas profundamente enraizados.
Se o passado foi injusto, um algoritmo que aprende com esse passado não corrige o erro, ele o automatiza. E se esse sistema é adotado por tribunais, o risco é que o preconceito deixe de ser apenas humano e passe a ser tratado como dado objetivo, técnico e incontestável.
Quem será responsabilizado quando um algoritmo sugerir penas mais severas para réus negros ou pobres, como já ocorreu em sistemas de previsão criminal nos Estados Unidos da América? O caso do COMPAS (Correctional Offender Management Proffiling For Alternative Sanctions), um algoritmo usado por tribunais americanos para avaliar a probabilidade de reincidência criminal, tornou-se emblemático. Uma investigação do jornal ProPublica2 revelou que o sistema era significativamente enviesado: pessoas negras eram frequentemente classificadas como de “alto risco” de reincidência, mesmo quando não reincidiam, enquanto brancos eram mais frequentemente classificados como de “baixo risco”, mesmo quando cometiam novos crimes. O COMPAS, treinado com dados históricos de um sistema penal marcadamente racista, aprendeu e automatizou essa discriminação, mostrando como a IA pode perpetuar injustiças sob um véu de suposta neutralidade técnica. Quem fiscaliza esses programas? Quem garante que a “inteligência” artificial não se torne uma caixa-preta de decisões injustas?
Essas perguntas evidenciam a grave lacuna de governança que persiste sobre o uso de inteligência artificial no Direito. No Brasil, a tramitação do Projeto de Lei 2.338/2023, atualmente em discussão na Câmara dos Deputados, representa um passo em direção ao reconhecimento do tema, mas ainda carece de mecanismos concretos que protejam efetivamente os mais vulneráveis de serem excluídos ou prejudicados por sistemas algorítmicos. Mais do que uma estrutura técnica, é urgente que a regulação inclua dispositivos que assegurem a participação social na governança da IA, vinculem incentivos à inovação a projetos com comprovado impacto social inclusivo e promovam educação digital e acesso à informação em linguagem acessível. Somente com essa “tríplice” base, fundamentada na transparência algorítmica por meio da auditoria independente de sistemas, na responsabilização clara de desenvolvedores e instituições que os utilizam, e no controle social efetivo com a criação de comitês éticos multidisciplinares, será possível evitar que a inteligência artificial se transforme em instrumento de injustiça automatizada. Sem tais salvaguardas, a suposta neutralidade técnica continuará a servir de véu para a perpetuação, em escala e velocidade inéditas, das mesmas desigualdades que o sistema jurídico deveria combater.
A constituição brasileira assegura o acesso à justiça como um direito fundamental. Mas o que significa “acesso” em um cenário onde os procedimentos estão cada vez mais mediados por tecnologia? A justiça que se pretende digital corre o risco de ser inacessível para os mais vulneráveis, inclusive nos juizados especiais, que foram justamente pensados para os que têm menos recursos.
Além disso, a linguagem jurídica já é, por si só, excludente. Com a introdução de plataformas digitais e sistemas automatizados, a barreira não é apenas técnica, mas simbólica: o cidadão comum se sente ainda mais afastado de um Judiciário que já parecia distante.
Não basta digitalizar o processo, é preciso garantir acompanhamento, mediação, inclusão e educação digital. Caso contrário, criaremos um sistema mais eficiente para quem já tinha acesso e mais inacessível para quem mais precisa.
O Direito não pode ser apenas espectador da transformação tecnológica. É preciso fazer perguntas difíceis, éticas e políticas. O uso da IA na justiça deve ser submetido a critérios rigorosos de transparência, auditabilidade e controle social. É necessário construir normas que garantam que os avanços técnicos estejam alinhados com a redução das desigualdades, e não com sua perpetuação.
Nesse contexto, a reflexão do Ministro Ricardo Lewandowski é fundamental. Ao defender a regulação estatal da inteligência artificial, ele afirmou que “somente os Estados nacionais, no exercício de sua soberania, têm o poder-dever de enfrentar esse novo e desafiador fenômeno, redirecionando-o para atender os autênticos interesses de seus cidadãos, mediante uma regulação apropriada”3. Este é justamente o caminho: garantir que a tecnologia sirva ao interesse público e não aos privilégios de poucos.
Mais do que isso, o Direito precisa ouvir a sociedade. Incluir os excluídos. Abrir espaço para uma justiça que seja digital, mas sobretudo democrática.
Estamos diante de uma encruzilhada. A tecnologia pode servir à justiça, ampliando seu alcance e eficiência. Mas também pode ser usada para encobrir desigualdades, naturalizar exclusões e transformar o Direito em um privilégio para poucos.
A escolha não é apenas técnica – é política e ética. O futuro da justiça não será decidido pelas máquinas, mas por nós: juristas, legisladores, cidadãos. E talvez a pergunta mais urgente não seja “como tornar o Direito mais tecnológico?”, mas sim: como garantir que o avanço tecnológico sirva para tornar o Direito verdadeiramente mais justo?
1 Dados divulgados pelo IBGE referente a Pesquisa Nacional por Amostra de Domicílios Contínua (Pnad).
2 ProPublica – Investigative Journalism in the Public Interest, https://www.propublica.org
3 LEWANDOWSKI, Ricardo. Folha de São Paulo, 2025
Pedro Ract Carbonés
Supervisor de Controladoria Jurídica da LBS Advogados
E-mail: pedro.carbones@lbs.adv.br