Entenda como ocorre a utilização dos Sistemas de IA (Inteligência Artificial) pelos Tribunais.
Os sistemas de Inteligência Artificial (IA) têm, nos últimos anos, assumido uma posição de destaque nos tribunais de várias jurisdições, desencadeando complexas questões legais e antecipando uma era inovadora na administração da justiça.
No cenário jurídico, a implementação da IA nos tribunais encontra seu respaldo em diversas disposições, notadamente no que diz respeito à celeridade processual e à eficácia da jurisdição.
Entretanto, a concretização dos sistemas de IA nos tribunais não se desvencilha de desafios intrincados. A salvaguarda do devido processo legal e da ampla defesa, pilares basilares do ordenamento jurídico, demanda a observância estrita das garantias individuais dos jurisdicionados.
Nesse contexto, a interpretação automatizada das provas e a tomada de decisões calcadas em algoritmos suscitam apreensões quanto à transparência e à possibilidade de predisposição algorítmica.
A jurisprudência, ilustrada pelo caso Loomis Vs. Wisconsin nos Estados Unidos, tem abordado questões críticas relacionadas à utilização da IA no âmbito judiciário. A sentença proferida neste caso ressaltou a indispensabilidade de transparência na implementação de sistemas de IA, realçando a importância de uma compreensão profunda por parte dos tribunais em relação à operacionalidade dos algoritmos empregados.
Este caso questionou a utilização de um software de avaliação de risco de código fechado pelo Estado de Wisconsin na condenação de Eric Loomis a seis anos de prisão. Alegou-se que a utilização desse software na sentença contraria o direito do réu ao devido processo legal, uma vez que obsta a possibilidade de contestar a validade científica e a exatidão do referido teste. Além disso, argumentou-se que o sistema em questão (COMPAS) transgride os preceitos do devido processo ao levar em consideração o gênero e a raça.
O exame deste caso conferiria ao tribunal a oportunidade de determinar se é uma violação do devido processo condenar alguém com base em uma ferramenta de avaliação de risco cujo funcionamento é protegido como segredo comercial.
Simultaneamente, a doutrina jurídica tem explorado o tópico da responsabilidade legal no contexto da IA. O princípio da responsabilidade objetiva, consagrado pelo Código Civil, pode ser aplicado às situações em que sistemas de IA ocasionem danos. Não obstante, a atribuição de responsabilidade em casos de deliberações algorítmicas pode ser desafiadora, impondo a necessidade de modificações legislativas.
Ademais, a salvaguarda de dados pessoais surge como uma preocupação premente. A adoção da IA nos tribunais acarreta o tratamento de informações sensíveis, devendo, portanto, estar em harmonia com as leis de proteção de dados, como o Regulamento Geral de Proteção de Dados (GDPR) na União Europeia.
O recentemente divulgado relatório do Conselho Nacional de Justiça (CNJ) confirma a tendência observada nos últimos anos de uma rápida expansão na aplicação da Inteligência Artificial (IA) no âmbito do Poder Judiciário brasileiro. Os dados apresentados, que indicam um crescimento de 171% no número de projetos relacionados à IA em tribunais em comparação com o ano anterior, evidenciam um compromisso crescente com a modernização do sistema judicial.
O relatório ainda enfatiza os impulsionadores-chave por trás da adoção da IA nos tribunais, incluindo o aumento da produtividade, a busca incessante pela inovação, a aprimoração dos serviços judiciais e a redução de custos.
A implementação de projetos de IA, como o Janus, que automatiza tarefas repetitivas e agiliza procedimentos eleitorais, evidencia o potencial da IA em aliviar a carga de trabalho dos tribunais e aprimorar a experiência dos usuários. Ademais, a criação de modelos de IA para o Processo Judicial Eletrônico (PJe) ressalta a importância da IA na classificação, agrupamento e análise de processos judiciais, atividades de importância crucial para a eficácia do sistema judicial.
É imperativo, no entanto, ressaltar que o desenvolvimento e a implementação de sistemas de IA nos tribunais devem ser conduzidos com transparência e responsabilidade. O relatório enfatiza a essencial partilha de informações e a rastreabilidade dos dados processados por soluções de IA, aspectos fundamentais para assegurar a auditabilidade e a qualidade dos algoritmos empregados. Adicionalmente, a necessidade de profissionais especializados e uma formação adequada emergem como elementos cruciais para garantir o êxito dessas iniciativas.
Em síntese, a inserção de sistemas de IA nos tribunais representa um fenômeno jurídico multifacetado, que demanda um equilíbrio delicado entre a eficácia processual, o respeito aos direitos fundamentais e a transparência. À medida que a tecnologia avança, torna-se premente que legisladores e juristas acompanhem diligentemente essas transformações, adaptando com sagacidade o arcabouço jurídico para assegurar, inabalavelmente, a supremacia da justiça e a plenitude dos direitos fundamentais em um novo paradigma jurídico que se desenha diante de nós.