Inteligência Artificial: Como conciliar regulamentação e inovação? | Análise
Análise

Inteligência Artificial: Como conciliar regulamentação e inovação?

Por Rony Vainzof e Caio Lima, sócios-fundadores do VLK Advogados

30 de July de 2024 19h

A Inteligência Artificial (IA) vem se consolidando como instrumento de transformação global, potencializando a competitividade de empresas e nações, sendo tecnologia condicionante também para o desenvolvimento econômico e social do Brasil.

A McKinsey estima que a IA Generativa, por exemplo, possa contribuir para gerar entre US$ 2,6 trilhões e US$ 4,4 trilhões à economia global. Todos os setores estão sendo impactados positivamente, como o da saúde, financeiro, alta tecnologia e o comércio. Em média, o rendimento humano ao utilizar a IA Generativa é 66% maior (Nilsen Norman).

Existem, contudo, desafios éticos e legais, que precisam ser enfrentados. O modelo de regulação, a forma de se mitigar os riscos existentes, e os investimentos em educação, capacitação, infraestrutura e pesquisa, nortearão a corrida pela inovação e desenvolvimento.

Alguns dos riscos da IA são: concentração de poder em poucos países e empresas; potencialização de vieses discriminatórios existentes na sociedade; violação de propriedade intelectual e direitos de terceiros, seja para o treinamento dos modelos algorítmicos (entrada) ou no conteúdo gerado na saída; aumento na escala e sofisticação da desinformação, dificultando a identificação do que é verdade e o que é manipulado (conteúdo sintético gerado pela IA); proteção de dados pessoais e segurança cibernética; e mudanças radicais no mercado de trabalho, considerando o intervalo de tempo para capacitação e qualificação. Sobre o último ponto, estima-se que 300 milhões de empregos atuais estejam em risco (Goldman Sachs).

De fato, o treinamento dos algoritmos, a proteção de direitos autorais e dos dados pessoais, além do risco de elevação da desinformação, desafiam a busca pelo equilíbrio entre o avanço tecnológico e o respeito aos direitos de terceiros.

A utilização de conteúdo protegido (como artigos, áudios e imagens) para treinar sistemas de IA levanta questões complexas sobre como os direitos dos autores das obras devem ser respeitados sem impedir a evolução da tecnologia, considerando que, como regra, elas são protegidas legalmente e demandam prévia autorização para o seu uso.

Além disso, deve haver atenção à proteção dos dados pessoais e de segredos de negócios, garantindo a ética do uso desses dados para treinamento de algoritmos, mirando a minimização de dados, como forma de contribuir para reduzir o risco de violação de direitos. O treinamento de algoritmos também deve ser realizado de forma a mitigar o risco de discriminação (vieses) ilícita nas decisões automatizadas.

Para tanto, é essencial que empresas invistam em governança de IA, composta por cultura, princípios, processos, políticas e ferramentas para gerenciar o desenvolvimento, implantação e o uso ético, responsável e eficaz da tecnologia, para que esteja alinhada com os seus valores corporativos, requisitos legais, e padrões sociais e éticos.

A governança permite que as organizações libertem todo o potencial da tecnologia, ao mesmo tempo que mitigam riscos regulatórios e jurídicos.

Além disso, uma boa governança, implica no desenvolvimento melhor e mais eficiente das organizações (Gartner prevê que até 2026 as organizações que operacionalizarem IA de forma ética e responsável verão seus modelos alcançarem melhoria de 50% nos resultados de negócios e na aceitação do usuário).

Sobre eventual carga regulatória adicional, seria importante avaliar se as legislações existentes de acordo com o respectivo uso da IA já são suficientes para resolver a maioria das controvérsias, presentes e futuras. As lacunas residuais seriam tratadas em cada caso concreto. Apesar disso, as propostas de regulamentação da  IA têm avançado globalmente.

No Brasil, entendemos que não deve haver urgência normativa, especialmente diante do risco de impacto à inovação. Além disso, já há legislação que pode ser utilizada para fazer frente aos desafios mais críticos, incluindo os Código Civil e de Defesa do Consumidor, a Lei Geral de Proteção de Dados e Marco Civil da Internet, além da própria Constituição Federal.

Um bom exemplo para nós é o Reino Unido, que adotou abordagem intersetorial para regular a IA, sustentada em cinco princípios fundamentais: segurança; robustez; transparência e explicabilidade; justiça; responsabilização e prestação de contas; e reparação. Os reguladores de lá já existentes, como o de proteção de dados (Information Commissioner's Office), comunicação (Ofcom) e financeiro (Financial Conduct Authority) deverão implementar referidos princípios à medida que regulam e supervisionam a IA nos seus respetivos domínios, de forma contextual e utilizando as leis e regulamentos já existentes.

Nos EUA, a Ordem Executiva do Presidente Biden exige que os principais departamentos executivos setoriais formulem padrões, diretrizes, práticas e regulamentos consensuais da indústria para o desenvolvimento e uso de IA responsável. Ao mesmo tempo, visa desenvolver princípios e melhores práticas para mitigar os danos e maximizar os benefícios da IA para os trabalhadores, catalisar a pesquisa em IA e expandir a capacidade de imigrantes e não-imigrantes qualificados para estudar, permanecer e trabalhar nos EUA.

Já a União Europeia, com o seu AI Act, o qual contêm 113 artigos, 180 considerandos e 13 anexos, totalizando 458 páginas de regulação, prevê um regime denso e prescritivo de obrigações escalonadas de acordo com o risco de IA, além da nomeação de autoridade competente e novas sanções administrativas. Referido modelo pode ser temerário à inovação, por falta de flexibilidade, e nascer obsoleto à medida em que a IA se desenvolve.

Os membros do G7, grupo das maiores economias do mundo, acolheram favoravelmente princípios orientadores internacionais na matéria e código de conduta voluntário para os criadores de IA.

Em meio a esses desafios da IA, a questão da regulamentação permanece dilema global. O Brasil, ciente da importância da IA para sua competitividade, deve trilhar caminho cuidadoso, avaliando as leis em vigor, órgãos fiscalizadores já existentes e propondo regulamentação permissiva focada nessas eventuais lacunas. A busca pelo equilíbrio entre inovação e proteção de direitos é fundamental para o desenvolvimento sustentável nesse novo paradigma tecnológico.

A prioridade deveria ser um plano de nação para IA e dados de forma a qualificar mão de obra, com recursos e infraestrutura para criar ecossistemas em torno da capacidade humana, além de diminuir a barreira de entrada para pequenas e médias empresas. Precisamos promover a inovação responsável, evitando a obsolescência regulatória e garantindo competitividade.

O Direito deve impulsionar a inovação, e não ser detrator dela.

Rony Vainzof é sócio -fundador do VLK Advogados ** é advogado e professor especializado em Direito Digital, Proteção de Dados e Segurança Cibernética. Diretor do Departamento de Defesa e Segurança da FIESP. Consultor em Proteção de Dados da Fecomercio/SP. Coordenador dos livros "Inteligência Artificial - Sociedade, Economia e Estado", "Legal Innovation - O Direito do Futuro. O Futuro do Direito" e "Data Protection Officer (Encarregado)". Mestre em Soluções Alternativas de Controvérsias Empresariais pela Escola Paulista de Direito (EPD).

Caio Lima é sócio -fundador do VLK Advogados é advogado e professor. Atua com Direito Digital e Proteção de Dados há 15 anos e tem larga experiência com trabalhos consultivos envolvendo Governança de Dados Pessoais, Segurança Cibernética e Inovação. Atuou na prática com centenas de incidentes de segurança cibernética. Mestre em Processo Civil pela PUC-SP.

Os artigos e reportagens assinadas não refletem necessariamente a opinião da editora, sendo de responsabilidade exclusiva dos respectivos autores.

Caio LimaRony VainzofVLK Advogados