Interação entre bots e pessoas: quais leis se aplicam
Um bot é uma aplicação de software que simula ações humanas, mas obviamente não é um humano. Seu ponto forte, além da agilidade e baixo custo, é a capacidade de receber instruções e seguir um roteiro pré-programado, evitando cair em situações que gerem uma experiência ruim - mas que podem acontecer. Alguns possuem modelos que combinam árvore de decisão e sugestões para o usuário e outros mais sofisticados têm autonomia.
Enquanto evoluem as discussões sobre uma possível regulamentação de Inteligência Artificial no Brasil, é fácil perceber a constante presença desses assistentes robotizados nos mais diferentes atendimentos ao consumidor de todas as idades, como situações de lazer, compras, crédito, pesquisa, estudo, saúde, trabalho ou relacionamento.
Mas se existe interação com humanos, com o objetivo de informar ou influenciar uma decisão, passa a ser fundamental que esses dispositivos tenham uma conduta transparente e sigam regras bem estabelecidas.
Ou seja, todo e qualquer bot deve cumprir as leis vigentes. Sua programação e interface precisam atender a um framework de conformidade legal com requisitos mínimos relacionados a regulamentações, como a Constituição Federal, Código de Defesa do Consumidor, Estatuto da Criança e do Adolescente, Lei de Proteção de Dados Pessoais, Lei do SAC e Lei de Acesso à Informação. Além disso, precisam atender outras legislações específicas conforme o perfil da aplicação e o setor que estiver inserido, como um atendimento relacionado ao setor financeiro ou de energia, por exemplo.
Uma situação muito crítica é a proteção de dados pessoais, em que o bot precisa seguir um código de conduta e melhores práticas, previsão que está inclusive no artigo 4º. do PL 21/20 (Marco Legal de Inteligência Artificial). Para atender à Lei Geral de Proteção de Dados Pessoais (LGPD), o bot precisa cumprir com princípios éticos e de transparência, não discriminação, informar sobre tratamento de dados pessoais e dados pessoais sensíveis, fazer confirmação de autenticação e avisar sobre a política de privacidade e o canal de contato do Encarregado de Dados (DPO) da empresa.
O estado americano da Califórnia foi o primeiro a ter uma lei específica para exigir que o botse identifique, haja de forma transparente, proibindo qualquer atitude ludibriosa com a intenção de enganar sobre conteúdos de comunicação para incentivar uma compra ou transação comercial, ou mesmo influenciar uma pessoa para votar em processo eleitoral (Senate Bill n. 1001/2018).
Em uma decisão de 2022, a Autoridade de Proteção de Dados da Hungria entendeu que o Controlador usou indevidamente uma solução de Inteligência Artificial para avaliar o estado emocional dos clientes com base em seu humor, e assim analisar o atendimento e a satisfação do consumidor. Por não fazer aviso prévio claro desta finalidade na política (princípio de transparência), a empresa não cumpriu com o Regulamento de Proteção de Dados Europeu (GDPR) e foi multada em 634 mil euros.
No caso do Brasil, já temos várias denúncias feitas com relação ao comportamento de bots que não estão em conformidade com as leis vigentes junto ao site Reclame Aqui e também junto à Autoridade Nacional de Proteção de Dados (ANPD), que podem ensejar aplicação de multas para seus controladores, desenvolvedores e/ou proprietários.
Toda empresa que implementa um bot precisa adotar um fluxo que permita atender direitos de titulares previstos nos artigos 18 e 19 da LGPD, assim como as exigências específicas do artigo 20, para garantir a possibilidade de solicitar revisão em atendimentos automatizados, cabendo ao controlador responder sobre os critérios e fundamentos utilizados.
Logo, independentemente do tipo utilizado, é extremamente necessário que siga um código de conduta ético definido para comportamento robótico, que esteja treinado e habilitado nas tratativas com os usuários, para saber responder e lidar com situações que podem envolver até assédio. Isso protege o próprio desenvolvedor do bot e ajuda na limitação de responsabilidade.
Interessante reforçar que, diferente das situações com humanos, nas relações com bots há muito mais documentação e evidências, além da possibilidade de auditabilidade ao periciar o próprio bot para esclarecer e dar o depoimento dos fatos de maneira idônea e imparcial. Portanto, a possibilidade de responsabilização é maior.
Em um futuro não muito distante, veremos ordens de prisão a bots e seus proprietários, decisões que determinam pena de desligamento de bot (o mesmo que uma pena de morte robótica), debate sobre censura de bot e até perda de emprego para bots. São consequências da sua inserção social na nossa realidade digital e que demandam transparência e responsabilização nessas relações.