O Google lançou em 2023 um assistente de pesquisa e escrita com tecnologia de Inteligência Artificial (IA), construído com base no Gemini, chamado NotebookLM. O propósito dela é gerir todo o conhecimento que os usuários inserem nos prompts, sem utilizar dados sensíveis para treinar a IA.
Em 2024, a empresa anunciou uma versão atualizada do NotebookLM, que passa a contar com o Gemini 1.5 Pro para 200 países, incluindo o Brasil. Com isso, o usuário pode enviar fontes como notas de pesquisa, transcrições e documentos corporativos para que a ferramenta analise e forneça respostas especializadas.
Entre as novidades, existe a possibilidade de realizar atas de reuniões e anotações de pontos importantes de forma automática. Esse recurso levanta questionamentos sobre o uso desses dados para o treinamento da ferramenta, o que poderia gerar um possível vazamento de dados sensíveis e ferir a Lei Geral de Proteção de Dados (LGPD).
NotebookLM fere a LGPD?
A segurança é um ponto sensível para as empresas no que tange ao uso de Inteligência Artificial Generativa (GenAI). Segundo dados da "Pesquisa sobre o estado da IA na Cibersegurança", publicada pela CrowdStrike (empresa de tecnologia e segurança cibernética), que entrevistou 1.002 companhias, uma das principais preocupações com a adoção da IA é a exposição de dados confidenciais a LLMs (Large Language Models) subjacentes.
Ao ser procurada para comentar sobre a segurança da nova ferramenta e sua incorporação ao novo modelo Gemini, a Google declarou:
"O NotebookLM é um assistente de pesquisa e escrita que se baseia exclusivamente nas suas fontes para gerar respostas, não utilizando os documentos (sources) compartilhados pelos usuários, suas anotações ou suas conversas para treinamento de modelos de Inteligência Artificial. As informações enviadas pelo usuário são armazenadas com segurança e não são utilizadas para fins de treinamento dos modelos ou do produto. Os comandos e respostas não são retidos após o término da sessão. Esse princípio se enquadra também para reuniões, atas ou qualquer outro documento que o usuário use como fonte. Quando falamos nas integrações do Gemini dentro do Google Workspace, todos os dados dos usuários estão protegidos pela nossa política de privacidade e nossos compromissos sobre usos de dados para as implementações de IA."
Na visão da advocacia
Para Caio Lima, sócio do VLK Advogados e eleito Mais Admirado na especialidade Digital do anuário ANÁLISE ADVOCACIA, o fato de o NotebookLM não armazenar os dados inseridos pelos usuários nem os usar para treinar o algoritmo torna a ferramenta mais segura para o uso corporativo. "Nesse contexto de uma ferramenta que não usa esses dados para treinamento, isso sem dúvida nenhuma representa um risco mitigado para o uso pelas organizações", complementa Caio.
No entanto, mesmo que a ferramenta seja segura no sentido de vazamento de dados, ela ainda pode guardar alguns riscos. Isso ocorre porque o algoritmo analisa apenas as informações inseridas, sem buscar dados externos, o que pode aumentar o risco de vieses artificiais na IA.
Caio enfatiza que o melhor caminho para mitigar esse tipo de risco é a conscientização e o treinamento de colaboradores. Para ele, as empresas precisam criar mecanismos de treinamento para que os funcionários entendam os riscos que correm ao fazer uso de Inteligência Artificial.
Como prevenir vazamento de dados?
Na visão de Tae Young Cho, sócia do Gonsales & Cho Advogados Associados (GCAA), também eleita Mais Admirada na especialidade Digital pelo anuário ANÁLISE ADVOCACIA, apesar da conduta ética e responsável do NotebookLM, as empresas precisam tomar alguns cuidados para que, mesmo com esses benefícios, não ocorram vazamentos por parte dos funcionários ao usar outros tipos de IAs.
Atualmente, existe até mesmo um termo para exemplificar esse uso irregular de IA por parte dos colaboradores, chamado de "Shadow AI" ou "IA sombra". Usa-se o termo para designar sistemas de Inteligência Artificial desenvolvidos e operados sem supervisão humana e sem o conhecimento da equipe de TI da empresa. Com isso, aumenta-se então o risco de vazamento de dados.
Tae explica que, mesmo que se faça uso de ferramentas como o NotebookLM, o resultado não é significativo se as empresas não conhecerem seus processos. Além disso, é crucial entender a necessidade dos colaboradores, implementando as ferramentas que permitam um acompanhamento preciso e estabeleçam salvaguardas sobre as informações inseridas.
"Por isso que a identificação de processos é importante, e com base neles, deve-se fazer o alinhamento do tipo de ferramenta de aplicação, utilizando os frameworks de governança de IA que temos. Hoje temos o framework da própria ISO 42001, que pode ser um parâmetro para as empresas utilizarem e, daí, fazer a implementação com treinamento e monitoramento dos colaboradores", conclui a sócia.

