Não é de hoje que o ser humano teme aquilo que desconhece. Talvez grande parte desse sentimento seja gerado pela humanidade não conseguir acompanhar o desenvolvimento de algo que pode, potencialmente, tornar-se maior do que ela, um risco que as Inteligências Artificiais (IA) podem começar a representar.
No início de 2026, a Allianz Seguros lançou o estudo Allianz Risk Barometer 2026, que ranqueia os principais fatores de risco para o ano na avaliação de 3.388 especialistas em gestão de riscos de 23 setores industriais em 97 países.
Apesar de os incidentes cibernéticos liderarem as ameaças corporativas pelo quinto ano consecutivo, o mercado focou nas IAs, que saltaram da 10ª posição em 2025 para a 2ª neste ano, no mundo. Porém, entre todos os países, sete consideram a nova tecnologia como uma ameaça central para 2026, sendo eles: Austrália, Áustria, Colômbia, Grécia, Hungria, México e o Brasil.
O paradoxo brasileiro da IA
Apesar de o Brasil ser um dos países que consideram as Inteligências Artificiais como o maior risco para as empresas, é também um dos que mais as utilizam, pelo menos, por parte dos colaboradores. É o que aponta a pesquisa Global Hopes and Fears 2025, realizada pela PwC, que revela que 71% dos profissionais brasileiros usaram IA em suas funções, superando a média global, que foi de 54%.
Segundo Alexandre Zavaglia, diretor da Legal&Tech Design, os cenários das duas pesquisas se encontram. Para ele, o maior problema não é o risco em si, mas o desconhecimento da ameaça. "Vemos aqui no Brasil uma abertura maior e uma cultura de usar tecnologias. O que as empresas estão vendo agora é o maior risco por conta dessa adoção acelerada. Então, é por isso que esses cenários são convergentes, e não divergentes."
O diretor da Legal&Tech Design aponta que o uso de ferramentas que não passam pelo crivo das áreas jurídicas e de tecnologia, além de gerar um possível vazamento de dados, também pode resultar na elaboração de informações erradas. No entanto, Zavaglia diz que isso não é necessariamente uma falha da IA, mas sim da falta de mapeamento adequado, o que acaba focando no sintoma em vez de na solução.
Já na visão de Aline Valente, head of strategy & sales do C Law Experience, essa noção de risco se dá pelo fato de as empresas estarem começando a perceber os perigos que a produtividade desordenada representa. A advogada encara este momento como uma revisão de procedimentos internos para não limitar o uso, mas utilizá-lo com mais responsabilidade.
A vulnerabilidade do Brasil
O relatório também cita o risco em torno da "bolha de IA". O tema tem sido levantado devido à possibilidade de investimentos massivos na tecnologia não gerarem o retorno esperado. O estudo prevê uma alta de 3% nas insolvências globais em 2026, um alerta sobre o receio de uma crise que pode causar milhares de falências nos EUA e Europa.
Neste cenário, o Brasil encontra-se vulnerável não apenas pelo risco econômico, mas pela dependência tecnológica. Uma pesquisa do Instituto Brasileiro de Soberania Digital (IBSD), com publicação prevista para março e fornecida com exclusividade para a Análise Editorial, revela que o Brasil possui somente cinco data centers frente aos 150 dos EUA, tornando o país dependente de infraestruturas estrangeiras em um momento de incerteza global sobre a sustentabilidade do setor.
Zavaglia afirma que, historicamente, o Brasil utiliza muitos produtos e serviços de multinacionais, além de possuir uma cultura consolidada de dados abertos. Para ele, ter uma infraestrutura de data centers permitiria usar esses dados para criar serviços adaptados ao cenário nacional, diminuindo o gap em relação a outros países.
"É por isso que, de um lado, os data centers garantem a nossa soberania no sentido de que os nossos dados não vão mais trafegar internacionalmente. É uma infraestrutura necessária justamente para a gente avançar nessa expansão do uso de IA aqui", destaca Zavaglia.
Aline, por sua vez, não acredita que a bolha da IA gerará uma crise; ela diz que haverá movimentos de amadurecimento na inovação. No seu ponto de vista, as ameaças residem na forma como os dados são usados, já que a tecnologia se desenvolve de maneira muito mais rápida do que as empresas conseguem se atualizar.
O perigo da Shadow AI
Empresas sem governança ficam mais expostas ao vazamento de dados, um risco que muitas organizações ainda não perceberam. Segundo o Relatório do Custo das Violações de Dados 2025, da IBM, somente 33% das empresas realizam auditorias regulares para verificar o uso de IAs irregulares. Ferramentas também conhecidas também como "Shadow AI"
Na visão de Fábio Pereira, sócio de Direito Digital, Inovação e Propriedade Intelectual do Veirano Advogados, o Brasil possui uma curiosidade acima de outras nações para o uso de novas ferramentas. Como resultado, o mercado atropela os processos de governança e as empresas perdem a capacidade de ter uma resposta rápida em cenários de crise.
Além do vazamento, as Inteligências Artificiais também podem trazer alucinações. Gustavo Biagioli, chief compliance officer & legal director do Trench Rossi Watanabe, elucida que o uso não verificado pode resultar em respostas erradas que, sem revisão, podem gerar prejuízos.
"No relacionamento com as pessoas, você também abre uma margem jurídica muito grande de respostas equivocadas. As alucinações da IA geram prejuízos diretos às pessoas que estão se informando através dela, sem levar em consideração a margem de erro", aponta o executivo eleito Mais Admirado em Compliance pelo ANÁLISE EXECUTIVOS 2025.
Transformando riscos da IA em governança
De acordo com o estudo da Allianz Seguros, existem diversos motivos para as empresas brasileiras encararem a IA como um risco. O levantamento aponta que o Brasil possui ameaças operacionais, além de falhas legais, de responsabilidade civil e reputacionais com relação às Inteligências Artificiais, como a desinformação. Além disso, a ferramenta tem sido usada para "turbinar" crimes cibernéticos.
Fábio Pereira encara o sentimento dos gestores de risco como algo natural, dado o vácuo regulatório em que o Brasil se encontra. Contudo, enquanto o marco legal da IA é debatido no Congresso, ele afirma que as empresas devem tomar uma atitude elas mesmas. "Enquanto a lei não vem, as empresas certamente precisam se autorregular e tentar criar uma governança mais ética. Esse é o ponto, até conseguirmos atingir uma legislação que funcione para ambos os lados", complementa Fábio Pereira.
Gustavo Biagioli enxerga que as empresas podem se blindar via contratos com obrigações e penalidades claras. Para isso, é preciso estabelecer cláusulas de proteção na contratação de serviços em nuvem e provedores. Além disso, o executivo também afirma que é crucial especificar a proibição do uso de dados internos para treinar modelos.
"Isso não é preventivo, mas juridicamente você já tem uma mitigação desse risco, sobretudo na questão da resposta à ameaça. A empresa está transferindo ou compartilhando os riscos com os seus provedores e com a cadeia que está em seu entorno. E isso certamente é muito importante", complementa Biagioli.
Além da blindagem via contratos, Biagioli afirma que o treinamento de colaboradores é imprescindível. Segundo o executivo, muitos ataques ocorrem devido a falhas humanas, em que profissionais, por falta de percepção dos riscos, clicam em links suspeitos ou acessam ferramentas e sites maliciosos.
"Se todo mundo trabalhar em conjunto dentro da empresa, coordenando os investimentos em cibersegurança, treinamento, estruturação de planos de resposta, avaliação de riscos, além da construção das políticas, eu tenho certeza de que vai reduzir significativamente a materialização dos riscos que a IA representa", conclui o executivo.

