Entre as promessas de tendências para 2023, feitas há meses e que iam de progressos em torno do hidrogênio verde, veículos e processos autônomos, novas decorrências da blockchain, edição de genes, metaverso dentre outros, nada se sobressaiu mais que o uso explosivo e massificado da Inteligência Artificial.
Além das previsões de ganho de eficiência (41% no segmento de serviços profissionais, 40% em serviços administrativos, 39% na agricultura por exemplo¹), o mundo viu a vertiginosa adoção de ferramentas de inteligência artificial generativa, como o ChatGPT, que levou menos de uma semana para atingir a marca de um milhão de usuários, no fim de 2022.
Uma tecnologia que traz tantos impactos e que tem o potencial de mudar tão profundamente a maneira como realizamos diversas tarefas certamente traz algumas preocupações. Dentre elas, a confiança (ou a falta de) nos dados apresentados pela IA. Segundo o relatório Futuro dos Profissionais², publicado pelo Thomson Reuters Institute em 2023, a principal preocupação dos profissionais em âmbito global quanto à aplicação da Inteligência Artificial é a precisão, item apontado por 25% dos profissionais escutados. Tecnologias disruptivas tendem a transformar rapidamente os mercados e a sociedade e justamente por essa capacidade escalável, faz muito sentido que pensemos em princípios éticos que devem nortear o desenvolvimento desse tipo de tecnologia.
Princípios que devem nortear IA
Justamente por sua alta e acelerada capacidade de assimilação às formas de produção de valor e de relações, conhecer os princípios sobre os quais uma determinada IA é desenvolvida é e tende a ser cada vez mais importante. O uso das informações extraídas ou geradas pela ferramenta pode trazer diversos tipos de consequências, inclusive descumprindo outras legislações já em vigor, como por exemplo a LGPD (Lei Geral de Proteção de Dados). Assim, segurança, proteção e privacidade de dados devem ser sempre consideradas.
Ainda quanto às preocupações dos profissionais mapeadas no Thomson Reuters Institute, a segurança dos dados é indicada por 15% dos profissionais globalmente, tomando a frente como principal preocupação para os profissionais da América Latina, indicada por um quarto dos profissionais latino-americanos.
Muito relacionado à ética, na construção da IA deve-se garantir que o uso dos dados seja feito de uma maneira que trate as pessoas de forma justa, sejam confiáveis, consistentes e capacitem decisões socialmente responsáveis³. Assim, a IA deve apresentar resultados desprovidos de qualquer viés ou preconceito.
Um outro item interessante é a transparência. As práticas utilizadas no desenvolvimento da IA devem ser passíveis de serem explicadas.
Conteúdo confiável
Além da capacidade tecnológica da ferramenta, algo que deve estar sempre no centro das atenções é o conteúdo. Especialmente no âmbito jurídico, área que é orientada por dados (doutrina, jurisprudência, legislação), o conteúdo deve ser sempre atual, preciso, abrangente e aprimorado.
Isso significa que pode haver uma ferramenta com IA extremamente poderosa, mas que, se for utilizada sobre dados incorretos, como legislações desatualizadas ou conteúdo não confiável, tende a não entregar os benefícios da IA em sua potencialidade, pensando que com a IA a pretensão é de elevar a barra do essencial.
Conhecer para construir o que desejamos
A inteligência artificial acessível tem o potencial de mudar o mundo de maneira grandiosa se desenvolvida de maneira responsável, sobre dados confiáveis. O uso profissional qualificado pode redefinir a produtividade e a geração de valor em uma revolução igualável à criação da internet. As mudanças aconteceram rapidamente e este é um momento chave para que os profissionais conheçam as possibilidades com confiança para que possam moldar o futuro que desejam para suas profissões e suas carreiras.
¹Source: Eisfeldt, Andrea L, et al. "Generative AI and Firm Values." National Bureau of Economic Research, May 2023
²Future of Professionals - https://www.thomsonreuters.com/en/campaigns/future-of-professionals.html
³https://www.thomsonreuters.com/en/artificial-intelligence/ai-principles.html
Juliana Ono é diretora de Conteúdo e de Operações Editoriais da Thomson Reuters; advogada especialista em Tax pela FGV e mentora no programa de mentoria para mulheres da Thomson Reuters.
Os artigos e reportagens assinadas não refletem necessariamente a opinião da editora, sendo de responsabilidade exclusiva dos respectivos autores.