"IA física é o futuro", diz CEO da Nvidia | Análise
Análise

"IA física é o futuro", diz CEO da Nvidia

Responsabilidade civil, LGPD e direito do trabalho enfrentam desafios inéditos com a proximidade da chegada de robôs que aprendem e tomam decisões autônomas

22 de January 20h35

A inteligência artificial deixou o reino abstrato dos algoritmos invisíveis. Ela agora ocupa espaços físicos, move-se entre nós e toma decisões que impactam corpos, não apenas dados. Robôs humanoides em fábricas, veículos autônomos em centros logísticos e bots trabalhando ao lado de humanos já não são ficção científica — são realidade operacional que desafia os pilares tradicionais do direito.

O CEO da Nvidia declarou recentemente que "o futuro da IA é a IA física", mas garantiu que esse futuro não está distante. Essa afirmação ressoou com urgência no mercado mundial e acende um alerta para o jurídico brasileiro. Consequentemente, advogados e executivos precisam compreender que o arcabouço legal atual apresenta lacunas críticas. Portanto, este é o momento de preparação estratégica.

Lacunas na legislação brasileira

A legislação brasileira não possui normas específicas para acidentes envolvendo IA física. Assim, os casos serão tratados por analogia ao Código Civil, CDC e CLT. Contudo, esse modelo apresenta limitações significativas.

Fabricio Polido, sócio de L.O. Baptista, explica que "a legislação pressupõe que o dano seja previsível ou decorrente de um defeito de fabricação". Quando um robô causa dano por decisão autônoma aprendida, a cadeia de causalidade torna-se complexa. Além disso, dificulta-se a prova do nexo causal.

A responsabilidade objetiva do risco da atividade permanece aplicável. No entanto, sistemas que aprendem e mudam comportamento desafiam conceitos tradicionais. Beatriz Haikal, sócia do BBL Advogados, reforça que "os institutos tradicionais de culpa, nexo causal e defeito foram concebidos para produtos estáticos ou condutas humanas".

O PL da Inteligência Artificial busca preencher essas lacunas, propondo responsabilidade objetiva para sistemas de alto risco. Ademais, estabelece presunção de causalidade favorecendo vítimas.

Cadeia de responsabilidade civil permanece indefinida

Quem responde quando um robô causa dano? A resposta depende do caso concreto. Entretanto, a tendência é responsabilização solidária entre fabricante, operador e proprietário.

Leandro Aghazarm, do Henneberg Ferreira Marques, esclarece: "O fabricante ou integrador tende a responder quando o dano decorre de defeito de concepção e fabricação". A empresa usuária responde pelo risco da atividade. Já o programador responde apenas se houver erro técnico comprovável.

Na prática, o Judiciário direciona responsabilidade para quem detém maior controle. Consequentemente, empresas assumem riscos significativos. Beatriz Haikal observa que "essa lógica tende a ser reforçada pela aplicação combinada da teoria do risco da atividade".

O CDC oferece base importante, mas mostra-se insuficiente. Sistemas que se modificam após colocação no mercado exigem regime específico. Assim, contratos bem estruturados tornam-se essenciais para alocação de riscos.

Proteção de inovações exige estratégia multicamadas

A IA física combina hardware, software e aprendizado de máquina. Portanto, requer proteção jurídica híbrida e complexa.

Fabricio Polido destaca que "a proteção de produtos e processos inovadores em IA física requer uma estratégia de Propriedade Intelectual híbrida". Patentes protegem hardware e processos inventivos. Direitos autorais cobrem código-fonte. Contudo, o maior ativo reside nos modelos treinados.

Beatriz Haikal complementa: "grande parte do valor econômico reside menos no algoritmo abstrato e mais em ativos dificilmente patenteáveis, como conjuntos de dados proprietários". Segredo industrial torna-se ferramenta central. Ademais, contratos devem prever titularidade sobre melhorias geradas por aprendizado contínuo.

A interação constante entre camadas tecnológicas cria desafios únicos. Assim, empresas precisam estabelecer cláusulas sobre resultados gerados pelo robô no ambiente do cliente. Portanto, a estratégia de PI deixa de ser estática.

Dados coletados geram questões de titularidade e controle

Robôs em ambientes corporativos coletam volumes massivos de dados. Entretanto, a titularidade permanece com o indivíduo, conforme LGPD.

A empresa atua como controladora dos dados. Portanto, deve respeitar finalidade, minimização e transparência. Michel Berruezo, do Pellegrina e Monteiro Advogados, afirma que "a legislação brasileira assegura ao empregador a propriedade sobre o produto intelectual e tecnológico desenvolvido por trabalhadores".

Dados biométricos recebem proteção reforçada. São classificados como sensíveis pela LGPD. Consequentemente, exigem base legal específica e consentimento explícito. Leandro Aghazarm alerta: "será preciso muito cuidado acerca dos tipos de câmeras e sensores a serem inseridos em robôs".

Em espaços públicos, a coleta deve ser justificada. Ademais, requer transparência total aos titulares. Dados derivados ocupam zona cinzenta no ordenamento brasileiro. Portanto, contratos precisam definir propriedade sobre insights gerados.

Automação não gera passivo por si só

A substituição de trabalhadores por robôs é direito do empregador. No entanto, a forma de implementação pode gerar passivos significativos.

Fabricio Polido esclarece: "O risco de passivo surge não pela automação em si, mas pela forma como a substituição e dispensa são conduzidas". Demissões em massa sem plano de requalificação podem ser questionadas judicialmente. Além disso, violações a normas coletivas ampliam riscos.

Michel Berruezo destaca que "em 2025, o STF julgou, de forma unânime, a Ação Direta de Inconstitucionalidade por Omissão 73". O Legislativo não cumpriu o artigo 7º, XXVII, da Constituição. Portanto, projetos de lei propõem negociações coletivas obrigatórias.

Beatriz Haikal reforça que "o risco jurídico não decorre da tecnologia em si, mas das escolhas empresariais na forma de adoção". A OIT criou em 2024 o Observatório sobre IA e Trabalho. Consequentemente, o debate internacional intensifica-se sobre proteções adequadas.

Segurança do trabalho exige validação contínua

Humanos e robôs operando lado a lado criam novos desafios de segurança. A NR-12 e Nota Técnica 31/2018 regulamentam cobots no Brasil.

Michel Berruezo explica que "os modelos probabilísticos, se comparados ou conjugados aos sensores ópticos, aumentam a eficiência do maquinário". Sistemas de parada automática melhoram significativamente. Contudo, o comportamento do robô pode mudar devido ao aprendizado.

Fabricio Polido alerta: "a empresa deve garantir que o sistema de segurança seja constantemente validado para a nova funcionalidade aprendida". Limitação de força, sensores de presença e paradas de emergência são obrigatórios. Ademais, o Safety by Design torna-se princípio fundamental.

Leandro Aghazarm complementa que "a presença de robôs não reduz o dever do empregador de garantir um ambiente de trabalho seguro". Pelo contrário, aumenta exigências de gestão de riscos. Portanto, empresas devem mapear perigos específicos constantemente.

Contratos precisam alocar riscos com precisão

A aquisição de soluções de IA física exige cláusulas contratuais específicas. Contratos tradicionais de tecnologia mostram-se insuficientes.

Fabricio Polido destaca que "a alocação de riscos entre fornecedor e cliente é crucial". Acordo de Nível de Serviço deve definir atualização de software e manutenção preditiva. Além disso, propriedade dos dados de aprendizado merece atenção especial.

Beatriz Haikal reforça que "a contratação de soluções de IA física exige atenção redobrada à alocação de riscos". Contratos devem distinguir responsabilidades por defeitos de projeto, falhas de integração e uso operacional. Portanto, limitação de responsabilidade precisa respeitar CDC.

Leandro Aghazarm complementa que "é essencial definir claramente o escopo de uso da tecnologia". Seguros específicos transferem risco financeiro para seguradoras especializadas. Ademais, mecanismos de auditoria e registros de decisões tornam-se obrigatórios.

Governança corporativa assume papel estratégico central

Conselho de administração e diretoria têm responsabilidades ampliadas. A supervisão de investimentos em IA física não é apenas questão operacional.

Fabricio Polido explica que "o Conselho de Administração é responsável por definir o grau de adesão e risco da organização". Políticas de uso ético e transparente precisam ser aprovadas. Além disso, o alinhamento com diretrizes ESG torna-se mandatório.

Beatriz Haikal destaca que "compete a esses órgãos avaliar não apenas a viabilidade econômica da tecnologia". Impactos jurídicos, regulatórios e reputacionais exigem análise profunda. Consequentemente, ausência de supervisão pode gerar responsabilidade pessoal.

Leandro Aghazarm alerta: "danos à imagem de uma organização ou aos seus conselheiros e diretores podem ser imensuráveis". Portanto, comitês de ética em IA tornam-se estruturas necessárias. Ademais, auditorias algorítmicas serão obrigações positivas do Marco Legal.

Vigilância por robôs desafia limites da LGPD

Robôs equipados com câmeras e sensores criam desafio de monitoramento constante. A coleta massiva de dados em ambientes de trabalho tensiona princípios fundamentais.

Fabricio Polido destaca que "o principal desafio sob a LGPD é a justificativa da base legal e a transparência". Empresas devem informar expressamente sobre coleta e finalidade. Além disso, minimização torna-se princípio inegociável.

Beatriz Haikal reforça que "esses desafios são ainda mais sensíveis, diante do desequilíbrio estrutural da relação entre empregador e empregado". Consentimento possui validade questionável. Portanto, bases legais alternativas devem ser robustamente justificadas.

Leandro Aghazarm alerta sobre "o uso de câmeras e sensores amplia significativamente os riscos de violação à privacidade". Vigilância excessiva viola direito à intimidade. Consequentemente, RIPDs tornam-se obrigatórios para monitoramento sistemático.

Dados biométricos exigem governança reforçada

Biometria constitui dado pessoal sensível pela LGPD. Portanto, padrões de proteção são mais rigorosos que dados comuns.

Fabricio Polido explica que "a base legal para o tratamento de dados sensíveis é restrita". Consentimento específico, obrigação legal ou prevenção à fraude são hipóteses aplicáveis. Além disso, RIPD demonstra mitigação de riscos.

Beatriz Haikal complementa que "dados comportamentais correspondem a informações obtidas a partir da observação automatizada". Podem permitir reidentificação quando combinados. Consequentemente, elevam significativamente nível de risco.

Leandro Aghazarm destaca que "a política de privacidade deve ser clara, acessível e compreensível". Prazos de retenção precisam ser definidos. Ademais, controles de acesso tornam-se essenciais. Portanto, coleta ampla não é legitimada pela tecnologia.

Mercado jurídico precisa se preparar

Escritórios de advocacia não podem postergar preparação. A IA física já é realidade operacional, não tendência futura.

Fabricio Polido afirma que "escritórios de primeira linha já têm se preparado há anos". A tradição de novas leis digitais exige especialização contínua. Além disso, assessoria em contratos de IA torna-se serviço diferenciado.

Beatriz Haikal destaca que "a consolidação da IA física tende a transformar de forma significativa a demanda por serviços jurídicos". Atuação deixa de ser reativa. Portanto, estruturação preventiva de riscos torna-se essencial.

Michel Berruezo reforça: "os advogados deverão, mais do que nunca, compreender o funcionamento dos modelos de IA". Ciência de dados e computação entram no currículo jurídico. Consequentemente, letramento em IA torna-se competência nuclear.

Leandro Aghazarm complementa que "serão especialmente valorizadas competências em responsabilidade civil tecnológica". Atuação multi e interdisciplinar torna-se padrão. Portanto, escritórios capazes de integrar conhecimento jurídico e tecnológico estarão melhor posicionados.

AutomaçãoBBL AdvogadosBeatriz HaikalFabricio PolidoHenneberg Ferreira Marques AdvogadosIAIA físicaInteligência ArtificialL.O. BaptistaLeandro AghazarmMichel BerruezoPellegrina e Monteiro Advogados