Sistemas de inteligência artificial no Judiciário e o GPT-4: algumas reflexões

Nunca se debateu tanto o assunto “inteligência artificial” quanto nos dias de hoje e grande empolgação tem surgido em razão da ampliação do acesso a ferramentas como o ChatGPT, da OpenAI, que já opera pelo algoritmo GPT-4 (Generative Pre-training Transformer 4.0) (1), a mais nova versão que operacionaliza tal ferramenta (2), desde março de 2023. 

Fato é que o uso de sistemas de inteligência artificial tem aumentado em diversos setores, para diversas finalidades, e isto não é diferente no Judiciário brasileiro. São sistemas utilizados para otimizar as atividades ordinatórias e, principalmente, auxiliar na tomada de decisões, o que tem permitido notável incremento na celeridade e economia na prestação jurisdicional. 

O estudo “Tecnologia Aplicada à Gestão de Conflitos no Poder Judiciário com Ênfase em Inteligência Artificial”, coordenado pelo Centro de Inovação, Administração e Pesquisa do Judiciário da Fundação Getúlio Vargas (CIAPJ/FGV), revelou que, em 2020, mais da metade dos tribunais brasileiros já utilizavam sistemas de inteligência artificial (3). Entretanto, é preciso ter cautela e seguir as diretrizes estabelecidas pelo Conselho Nacional de Justiça (CNJ) para garantir que o uso desses sistemas não viole direitos e garantias estabelecidos constitucionalmente.

O volume de demandas que ingressam no sistema de justiça brasileiro, aliado à restrição orçamentária para a criação de novos cargos de juízes e servidores, impõe ao Judiciário brasileiro o desafio constante de aprimoramento de sua gestão processual. Nesse sentido, a adoção de ferramentas algorítmicas para a automação de atos não decisórios e instrumentalização para a tomada de decisões tem se mostrado fundamental para alcançar maior produtividade e celeridade na prestação jurisdicional, a um custo menor.

O desenvolvimento dessas ferramentas tem sido uma solução para aprimorar a gestão processual do Judiciário brasileiro. O sistema “Victor”, desenvolvido em parceria com a Universidade de Brasília (UnB), é um exemplo. Ele auxilia os analistas do Supremo Tribunal Federal (STF) na interpretação de recursos e separação por temas de repercussão geral, reduzindo o tempo de análise e economizando recursos humanos. O STF também implantou o “Robô Victor”, que utiliza acervos de dados processados heuristicamente para responder perguntas dos usuários do sítio eletrônico do tribunal.

O Superior Tribunal de Justiça também tem se destacado pelo implemento de sistemas decisionais de apoio baseados em inteligência artificial, como descreve Mário Augusto Figueiredo de Lacerda Guerreiro: “o Superior Tribunal de Justiça (STJ) desenvolveu o sistema Sócrates 2.0, voltado à identificação e fornecimento de informações relevantes contidas no recurso especial, tais como os permissivos constitucionais pelos quais o recurso foi interposto, os dispositivos legais tidos por violados, os precedentes jurisprudenciais acerca da matéria e as controvérsias jurídicas apresentadas (...)” (4). Outros sistemas desenvolvidos pelo STJ são: “e-Juris, que identifica com algoritmos de redes neurais as normas que foram objeto de exame e os precedentes citados; Logos, dirigido a identificar temas repetitivos; e Accordes, voltado a selecionar acórdãos similares para o produto Jurisprudência em Teses; (...) Em parceria com a Escola Nacional de Formação e Aperfeiçoamento de Magistrados (ENFAM), o STJ desenvolveu o projeto Corpus 927 , sistema de busca de jurisprudência que reúne as decisões vinculantes, os enunciados e as orientações de que trata o artigo 927 da Lei 13.105/2015” (5).

E estes são apenas alguns exemplos de sistemas adotados por Tribunais Superiores. Noutros âmbitos, há diversas iniciativas valiosas do Judiciário, que essas breves linhas não conseguiriam mencionar a contento. Assim, mesmo que esteja no horizonte a perspectiva de incorporação de sistemas super sofisticados à prestação jurisdicional, a exemplo do mencionado GPT-4, também há desafios a considerar, como a garantia de transparência, ética e governança no uso dos algoritmos e dos processos de machine learning.

Por óbvio, havendo erro, seja pela má coleta, seja pelo mau processamento, seja ainda pela inviabilidade de solução algorítmica para determinada formulação, corre-se o risco de que a decisão tomada seja contaminada por vieses. Em simples termos, o enviesamento algorítmico (algorithmic bias) (6) indica a falha ‘no consequente’, que pode gerar dano. Não obstante, é preciso que se considere o ‘antecedente’, ou seja, que se investigue o percurso causal do processo heurístico para que seja possível aferir se a decisão eivada de vício foi tomada em função de uma falha ocorrida em etapa prévia que tenha acabado por macular os estágios de processamento subsequentes. A nível regulatório, entretanto, ainda se nota escassez normativa em todo o globo.

Nos Estados Unidos da América, foi apresentado, em 12 de dezembro de 2017, o “Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act”, ou apenas “Future of AI Act” (7), que é bastante apegado à correlação entre o conceito de IA e o funcionamento do cérebro humano, denotando proximidade conceitual com a ideia de “singularidade tecnológica”. Tal documento indica, ainda, diretrizes éticas para o fomento ao desenvolvimento algorítmico, mas não aborda a responsabilidade civil de forma direta.

Alguns documentos mais recentes, como o Artificial Intelligence Act europeu de 2021 (8) (2021 EU AIA) e o recentíssimo Algorithmic Accountability Act norte-americano de 2022 (9) (2022 US AAA), que atualizou a versão anterior, de 2019 (10), evitam a discussão terminológica sobre o alcance semântico do termo “inteligência”, preferindo se reportar a “sistemas decisionais automatizados” (11) (Automated Decision Systems, ou ADS’s) para explicitar a necessidade de que seja definido um regime de responsabilidade civil aplicável em decorrência de eventos danosos propiciados por tais sistemas, e, até mesmo, para reafirmar a importância da estruturação de parâmetros éticos para o desenvolvimento de algoritmos. 

Segundo abalizada doutrina (12), os documentos citados possuem qualidades que podem servir para mútua inspiração, denotando a importância da adequada assimilação semântica (além de outros temas) para a evolução das discussões até mesmo a nível global.

No Brasil, os Projetos de Lei nºs 5.051/2019, 21/2020 e 872/2021 visam regulamentar o tema em linhas gerais (e não apenas para o contexto do Judiciário), priorizando a delimitação de um sistema de responsabilização baseado na anacrônica teoria da culpa, que simplesmente não faz sentido para tutelar matéria tão complexa. A Resolução 332/2020 do Conselho Nacional de Justiça (CNJ), inspirada em princípios fundamentais estabelecidos pela Comissão Europeia para Eficiência da Justiça (CEPEJ) e pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE), busca garantir que o uso da inteligência artificial no Judiciário brasileiro respeite direitos e garantias fundamentais, sem prejudicar a celeridade e a economia processuais. 

Todavia, em fevereiro de 2022, foi instituída, pelo Senado Federal, a elogiável “Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA” (CJSUBIA), que realizou diversas reuniões e audiências públicas e os trabalhos de elaboração do substitutivo foram concluídos em dezembro de 2022 (13).

Sem dúvidas, a inteligência artificial tem grande potencial para revolucionar a prestação jurisdicional no Brasil, tornando-a mais rápida e eficiente. No entanto, é preciso garantir que ela não prejudique a qualidade da decisão judicial nem viole os direitos e garantias fundamentais dos cidadãos.  O GPT-4 tem um grande potencial para ser utilizado no Judiciário brasileiro, no futuro, graças à sua capacidade de processar e analisar grandes volumes de dados de forma eficiente e precisa. Com essa tecnologia, será possível tornar os processos judiciais mais eficientes e rápidos, uma vez que o GPT-4 pode analisar e interpretar textos de forma “quase humana”, identificando informações relevantes em documentos complexos, como contratos e petições, com a adição da funcionalidade que permite a análise de imagens, e não apenas de texto.

Além disso, o GPT-4 pode ajudar na tomada de decisões judiciais, permitindo que juízes e advogados acessem rapidamente informações relevantes e importantes para o caso em questão. Com o uso dessa tecnologia, será possível fazer pesquisas mais precisas e detalhadas, tornando o processo de tomada de decisão mais informado e justo. Por fim, o GPT-4 também tem o potencial de ser usado em serviços de atendimento ao cidadão pelo Judiciário brasileiro, através de chatbots mais inteligentes e eficazes, que podem responder a perguntas de forma rápida e precisa, tornando o acesso à justiça mais fácil e acessível para todos. 

O que é inegável é que tais sistemas, por mais empolgantes e sofisticados que sejam, não têm condições de substituir o papel dos juízes. Tudo o que é intrínseco à natureza humana, a ponto de demandar análise cuidadosa de circunstâncias que extrapolam o processamento heurístico, certamente não está contemplado pelo modo de operação desses sistemas. Seu valor, de fato, está no ganho que podem propiciar em termos de eficiência, aprimorando a prestação jurisdicional como sistemas de apoio, não mais do que isso.


(1) OPENAI. Generative Pre-training Transformer 4.0 – GPT-4. Disponível em: https://openai.com/research/gpt-4 Acesso em: 17 mar. 2023.

(2) Para um retrospecto conceitual e evolutivo do GPT, conferir o trabalho que elaborei em 2021, quando surgiam os primeiros rumores acerca do potencial do GPT-3, a versão anterior do algoritmo, em: FALEIROS JR., José Luiz de Moura. Breves reflexões sobre os impactos jurídicos do algoritmo GPT-3. In: BARBOSA, Mafalda Miranda; BRAGA NETTO, Felipe, SILVA, Michael César; FALEIROS JR., José Luiz de Moura (coord.). Direito digital e inteligência artificial: diálogos entre Brasil e Europa. Indaiatuba, SP: Foco, 2021, p. 521-532.

(3) FUNDAÇÃO GETÚLIO VARGAS. Centro de Inovação, Administração e Pesquisa do Judiciário. Tecnologia Aplicada à Gestão de Conflitos no Poder Judiciário com Ênfase em Inteligência Artificial, 2020. Disponível em: https://portal.fgv.br/eventos/webinar-i-inteligencia-artificial-aplicada-gestao-conflitos-ambito-poder-judiciario-1o-forum. Acesso em: 17 mar. 2023.

(4) DANKS, David; LONDON, Alex John. Algorithmic bias in autonomous systems. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI-17), Viena, p. 4691-4697, 2017. Disponível em: https://www.ijcai.org/Proceedings/2017/ Acesso em: 17 mar. 2023.

(5) GUERREIRO, Mário Augusto Figueiredo de Lacerda. Inovações na adoção da inteligência artificial pelo Poder Judiciário brasileiro. In: BARBOSA, Mafalda Miranda; BRAGA NETTO, Felipe, SILVA, Michael César; FALEIROS JR., José Luiz de Moura (coord.). Direito digital e inteligência artificial: diálogos entre Brasil e Europa. Indaiatuba, SP: Foco, 2021, p. 511-512.

(6) Ibidem.

(7) ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 4625, Dec. 12, 2017. FUTURE of Artificial Intelligence Act. Disponível em: https://www.congress.gov/115/bills/hr4625/BILLS-115hr4625ih.pdf  Acesso em: 17 mar. 2023.

(8) EUROPA. European Commission. Artificial Intelligence Act. 2021/0106(COD), abr. 2021. Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206 Acesso em: 17 mar. 2023.

(9) ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 6580, Feb. 3, 2022. Algorithmic Accountability Act of 2022. Disponível em: https://www.congress.gov/bill/117th-congress/house-bill/6580/text Acesso em: 17 mar. 2023.

(10) ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 2231, Apr. 10, 2019. Algorithmic Accountability Act of 2019. Disponível em: https://www.congress.gov/116/bills/hr2231/BILLS-116hr2231ih.pdf  Acesso em: 17 mar. 2023.

(11) Cf. SELBST, Andrew. An institutional view of algorithmic impact assessments. Harvard Journal of Law & Technology, Cambridge, v. 35, 2021. Disponível em: https://ssrn.com/abstract=3867634 Acesso em: 17 mar. 2023.

(12) MÖKANDER, Jakob; JUNEJA, Prathm; WATSON, David S.; FLORIDI, Luciano. The US Algorithmic Accountability Act of 2022 vs. The EU Artificial Intelligence Act: what can they learn from each other? Minds and Machines, Cham: Springer, v. 22, p. 1-9, jun. 2022. Disponível em: https://doi.org/10.1007/s11023-022-09612-y Acesso em: 17 mar. 2023.

(13) BRASIL. Senado Federal. Atividade Legislativa. Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA (CJSUBIA). Disponível em: https://legis.senado.leg.br/comissoes/comissao?codcol=2504 Acesso em: 17 mar. 2023.

Artigo escrito originalmente em 17 de março de 2023

José Luiz de Moura Faleiros Júnior

Doutorando em Direito Civil pela Universidade de São Paulo – USP/Largo de São Francisco. Doutorando em Direito, na área de estudo ‘Direito, Tecnologia e Inovação’, pela Universidade Federal de Minas Gerais – UFMG. Mestre e Bacharel em Direito pela Universidade Federal de Uberlândia – UFU. Especialista em Direito Digital. Advogado. Professor.

Anterior
Anterior

Sobre o ChatGPT e outros modelos de linguagem de larga escala

Próximo
Próximo

Responsabilidade civil e carros autônomos: o exemplo da tecnologia LiDAR