O relatório “AI Decision-Making and the Courts”, publicado em junho desse ano, elaborado pelo Australian Institute for Judicial Administration (AIJA), UNSW Law and Justice, UNSW Allens Hub e FLIP Stream1, faz uma investigação consistente sobre o uso da tecnologia de IA nos tribunais.
Certamente, vem crescendo a presença da tecnologia de IA na atividade jurisdicional em todo o mundo. Há casos, como da Estônia, um Estado totalmente digital, onde os chamados “Juízes de IA” já são um fato e decidem litígios contratuais de menor monta que são levados aos tribunais.
Todo o processo é muito simples, bastando a remessa dos documentos digitais das partes para a análise, seguida da decisão do magistrado de IA. Os recursos, se houverem, serão arbitrados por um magistrado humano.
Essa popularização do uso das tecnologias de IA em Juízo vem sendo reconhecida como positiva, de um lado, mas preocupante de outro. Até que ponto um juiz pode ou deve acatar uma recomendação da IA sobre determinado caso, optando por apoiar sua sentença em uma decisão automatizada, que é lastreada por dados de legislação e jurisprudência?
O relatório chama a atenção para o fato de que o termo inteligência “artificial” é inexato porque essa tecnologia utiliza recursos naturais e humanos para prever recomendar ou decidir em ambientais reais ou digitais e que o termo “inteligência complementar” seria mais adequado para “descrever o fenômeno se nosso objetivo fosse criar um sistema que resolva problemas que são difíceis para humanos, em vez de duplicar a inteligência humana”.
O problema da tecnologia de IA é que ela pode operar em diferentes níveis de autonomia. O relatório ressalta que passamos pelos sistemas de IA de primeira geração, na qual o conhecimento é decorrente de um programador humano, com conhecimento especializado em direito, que cria uma série de regras expressas nas chamadas “decision trees”, cujas escolhas recebem o nome de “nodes” e podem gerar soluções com base nessas regras.
A tecnologia de IA no que concerne à automação pode atuar sem controle humano, passando por diferentes níveis de 1 a 5, quando a máquina executa a tarefa com total controle, sem supervisão humana. Um exemplo dado pelo relatório, que deixa bem claro são os carros autônomos.
Essa questão coloca em debate, qual o papel que os humanos devem ter no sistema de IA, principalmente quanto à tomada de decisão (saída do sistema)? A IA pode auxiliar um juiz na tomada de decisão ou decidir autonomamente? Mas quem seria o responsável por eventuais danos causados? Os designers da tecnologia?
Agora, contudo, já estamos na segunda geração de tecnologias de IA interagindo com o universo jurídico. É o sistema de machine learning, que se divide em com e sem supervisão humana.
No primeiro caso, o aprendizado da máquina é feito por correlações definidas por humanos, usando métodos como das árvores de redes neurais até que se chegue a resultados minimamente precisos, aqui uma ressalva, a rede neural é apenas o termo utilizado para essa metodologia tecnológica, não se trata de uma rede biológica.
Há, segundo o relatório, várias formas de aprendizado das máquinas – passiva simples, ativa simples, ativa contínua e outros sistemas. Nesses casos há revisão humana (bacharel em direito) para ensinar o software a realizar a classificação correta dos documentos judiciais. Ao aplicar todas as classificações, digamos treinadas, a máquina cria um modelo classificador para os outros documentos.
Já o grupo sem supervisão, utiliza o desdobramento chamado deep learning, que é capaz de criar e estabelecer padrões de correlações próprias, dissociadas da cognição humana, obtido por forma não linear de aprendizado, uma espécie de rede “neural”, que depende de grande volume de dados para operar. Claro que apesar de não haver uma supervisão direta no resultado, haverá sempre um humano em sua programação, manutenção e utilização do projeto.
O relatório traz outro ponto importante: a tecnologia de IA também vem sendo utilizada para analisar tendências de decisões judiciais. Na Austrália, os dados estatísticos são considerados sem valor probatório, mas levanta o questionamento se os dados forem interpretados fora do contexto, expondo a decisão do magistrado.
Vale lembrar a proibição da França de se promover análise preditiva, correlacionando dados de decisões judiciais com o objetivo de prever práticas jurisdicionais, ou seja, a França quer impossibilitar que se identifique padrões em decisões judiciais, o que constitui uma posição isolada até porque a jurimetria é um fato consumado na maioria dos países que utilizam IA.
E de fato é, a jurimetria é uma ferramenta extremamente útil e pode auxiliar a todos os envolvidos, não só o judiciário, mas os advogados também. Ela é uma ferramenta capaz de auxiliar inclusive na desjudicialização, trazendo informações importantes para se ter uma análise precisa de elementos que possam ser identificados para a resolução de conflitos.
A aplicabilidade da tecnologia de IA na atividade jurisdicional já é amplamente conhecida no universo judicial, tendo com um dos expoentes o Legal Adviser Suport, o sistema Watson, usado no mundo inteiro, que pode disponibilizar pareceres e resultados sobres ações judiciais.
Temos também o Victor, programa de IA desenvolvido pelo Supremo Tribunal Federal em convênio com a Universidade de Brasília (UnB), que emprega técnicas de machine learning para identificar temas mais recorrentes de repercussão geral na alta corte brasileira. Vale lembrar que Victor não tem autonomia para tomar a decisão final, portanto, isso muito positivo em vários aspectos, afinal seriam necessários quantos profissionais para realizar tais levantamentos em uma planilha?
É o momento de utilizar a tecnologia a nosso favor em atividades repetitivas ou que requeiram uma estatística aplicada, portanto, nesse sentido, o ser humano não está descartado em hipótese alguma. Sem dúvida que todo o debate e o acompanhamento das questões éticas são fundamentais e precisam ser realizados e com monitoramento constante.
O relatório australiano alerta: “cada sistema de IA é diferente – sendo necessário perguntar se em relação a um determinado sistema, há preocupações particulares que possam comprometer a abertura, prestação jurisdicional responsável, imparcial, justa e eficiente. Compreender os termos e ferramentas comuns de IA, juntamente com as principais áreas de uso da IA ??nos tribunais em todo o mundo, pode ajudar a examinar o impacto da IA ??nos principais valores judiciais em caso a caso”.
Sem dúvida, a questão da IA aplicada ao judiciário não envolve apenas uma questão de tecnologia da informação, mas passa por outras questões éticas, políticas e sociais. Em que medidas os recursos tecnológicos inteligentes podem evitar decisões discricionárias?
Há grande esforço em produzir mecanismo de responsabilização sobre os impactos da IA como resposta aos próprios operadores do direito, jurisdicionado e Estado, porque são muitas as variáveis envolvidas na tecnologia inteligente, que vão muito além da abertura de códigos-fonte de algoritmos.
As aplicações ainda estão em desenvolvimento e são muito positivas, sem deixarmos de aprimorar, desenvolver e monitoras todos os aspectos de segurança para se evitar os riscos decorrentes de aplicações incorretas ou injustiças, isso é óbvio, o mais importante de tudo e em todas as questões, resumidamente os pontos que devem prevalecer em todos os aspectos são a dignidade da pessoa humana;
os direitos humanos e o respeito aos princípios fundamentais, mantendo-se a segurança jurídica, a legalidade e a transparência, base de uma sociedade justa e fraterna.
1 Disponível aqui.