Inteligência artificial: a tomada de decisão por sistemas e seus efeitos jurídicos | Análise
Análise

Inteligência artificial: a tomada de decisão por sistemas e seus efeitos jurídicos

Por Paula Marques Rodrigues e Renato Opice Blum, do Opice Blum, Bruno, Abrusio e Vainzof Advogados

21 de May de 2020 8h

A necessidade de regulação de sistemas de inteligência artificial (IA) é objeto de amplo debate da comunidade jurídica nacional e internacional. Isso porque, como qualquer forma de tecnologia digital, deve-se ter o cuidado e a técnica necessários para fazer valer regras que, ao mesmo tempo, garantam segurança jurídica das relações e não limitem o desenvolvimento tecnológico.

Importante mencionar que, na Europa, foi editada a Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica (2015/2103 - INL). Nesse documento, constam diversas orientações, pautadas na crescente preocupação quanto à utilização de sistemas autônomos e da provável ocorrência de danos ocasionados em decorrência da utilização destes.

Até o momento inexiste regulamentação sobre a criação, utilização e possíveis consequências danosas causadas por decisões automatizadas produzidas por sistemas de IA no Brasil. Contudo, cabe pontuar a existência de dois projetos de lei importantes sobre o tema: o Projeto de Lei n. 5051, de 2019, que pretende estabelecer os princípios para o uso da IA no País e o Projeto de Lei n. 4496, de 2019, o qual pretende adicionar a definição da expressão "decisão automatizada" nas conceituações previstas no artigo 5º da Lei Geral de Proteção de Dados (Lei n. 13.709/2018); ambas de autoria do Senador Styvenson Valentim.

Importante se ter em mente que o desenvolvimento e a utilização de sistemas de IA no âmbito jurídico é uma realidade cada vez mais comum. No Poder Judiciário, a busca por maior celeridade nos trâmites processuais, bem como a diminuição de acervo, motivou o desenvolvimento concreto desse tipo de tecnologia.

Como exemplo concreto dessa situação, tem-se Victor, o sistema de IA vinculado ao Supremo Tribunal Federal. Este tem por missão inicial a leitura de todos os Recursos Extraordinários remetidos ao Tribunal, para identificar quais deles podem estar vinculados a determinados temas de repercussão geral. Por ser um sistema que contém machine learning (ou aprendizado de máquina), Victor está absorvendo a grande massa de informações dos recursos e o vasto acervo de decisões proferidas pelo STF, a fim de que esteja parametrizado com os entendimentos e consiga realizar a vinculação pretendida com a maior acurácia possível.

Outros Tribunais também estão implementando soluções de IA, como o Tribunal do Estado do Rio Grande do Norte (Poti, Jerimum e Clara), Minas Gerais (Radar), Rondônia (Sinapse) e Pernambuco (Elis). Desde penhoras on-line automáticas nas contas de devedores, até a triagem, classificação de processos e recomendação de decisões, há variadas formas de aplicação de sistemas de IA, objetivando a melhoria de produtividade e maior controle dos acervos judiciais no País.

Em relação à advocacia, ainda que em fase inicial, escritórios já têm utilizado sistemas de IA para auxiliar na gestão de processos, especialmente bancas responsáveis por patrocinar grandes volumes de processos (as chamadas demandas massificadas). Tarefas como leitura de intimações, distribuição de prazos, classificação de processos e análise preditiva de tempo médio de tramitação são algumas das possibilidades ofertadas pelo mercado atualmente.

No âmbito privado das relações, a questão da responsabilidade civil aplicada à IA tem por premissa que os sistemas possuam autonomia para a tomada de decisões - estas que também produzem efeitos jurídicos e que podem, certamente, causar dano a outrem.

Evidente que, se os sistemas de IA são dotados de autonomia, podendo ser capazes de decidir sem intervenção humana direta, a pergunta que vários estudiosos tentam, conjuntamente, responder é: quem responderá pelas consequências de atos praticados por referidos sistemas?

Ainda que não exista regulamentação sobre a temática, muitas são as vertentes sobre as normativas a serem aplicadas para resguardar a vítima de dano causado por um sistema autônomo.

Dentro dessas discussões e, tendo em vista que referidos sistemas poderão gerar potenciais danos graves e em larga escala, deve-se levar em conta as peculiaridades do caso concreto, pois é necessário investigar a possibilidade de se caracterizar a utilização de sistemas de IA autônomos como eventual atividade de risco, eis que há possível imprevisibilidade de tomada de decisões pelos mencionados sistemas (trecho baseado em artigos do livro "Inteligência Artificial e Direito: ética, regulação e responsabilidade" coordenado por Ana Frazão e Caitlin Milholland).

Como dito, o amplo debate sobre os efeitos jurídicos das decisões tomadas por sistemas de IA é essencial para maior segurança jurídica dessas relações, considerando que os processos inerentes a esses resultados são, por vezes, desconhecidos e inexplicáveis dada a sua complexidade. A comunidade jurídica terá papel fundamental na definição dessas questões conforme o ordenamento jurídico em vigor, sem prejuízo de regulamentação específica sobre o tema.

automaçãoIAInovaçãoInteligência Artificialmachine learningOpice BlumPaula Marques RodriguesRenato Opice BlumSegurança JurídicaTecnologia