AASP logo
AASP logo

Notícias

A Responsabilidade Civil diante da Capacidade da Inteligência Artificial de Replicar Identidades Humanas: Deepfakes, Avatares e Clonagem de Voz

Autor: Breno Luis Moura Gomes

­

Os artigos postados neste canal são apresentados por associadas e associados e refletem visões, análises e opiniões pessoais, não correspondendo, necessariamente, ao posicionamento da AASP.

­

Data da Produção: 11/03/2026

­

A tecnologia não avança em vácuo jurídico. Quando a inteligência artificial adquire a capacidade de replicar com precisão assustadora os traços mais íntimos da identidade humana, a voz, o rosto, os gestos, o direito se vê diante de um abismo conceitual que as categorias tradicionais de responsabilidade civil não conseguem transpor sem esforço considerável. O fenômeno dos deepfakes, avatares sintéticos e clonagem de voz representa mais que uma inovação tecnológica; constitui um desafio estrutural ao próprio fundamento da imputabilidade jurídica.

­

A questão que se coloca não é meramente técnica. É fundamentalmente jurídica: quem responde quando uma máquina, treinada por humanos, mas operando segundo lógicas que escapam à compreensão completa de seus criadores, produz conteúdo que danifica a reputação, a privacidade ou a integridade psicológica de uma pessoa? O ordenamento jurídico brasileiro, construído sobre pressupostos de agência humana clara e intencionalidade discernível, encontra-se em território inexplorado.

­

­I. O COLAPSO DAS CATEGORIAS TRADICIONAIS DE IMPUTAÇÃO

­

A responsabilidade civil clássica repousa sobre três pilares: a existência de um dano, a conduta culpável ou dolosa, e o nexo causal entre ambos. Quando um deepfake é criado e disseminado, esses elementos parecem simples à primeira vista. Há dano evidente, a reputação abalada, a privacidade violada. Há conduta, alguém acionou algoritmos, alimentou dados, publicou o resultado. Há nexo causal, a máquina produziu exatamente aquilo que foi programada para produzir.

 

Mas essa aparente clareza desmorona sob escrutínio. A inteligência artificial moderna não funciona como um martelo nas mãos de um carpinteiro. Não é um instrumento cuja operação pode ser reduzida a intenção + ação = resultado previsível. Os modelos de aprendizado profundo operam através de bilhões de parâmetros ajustados iterativamente, gerando outputs que frequentemente surpreendem seus próprios desenvolvedores. A culpa, nesse contexto, torna-se uma categoria nebulosa.

 

Consideremos um cenário concreto: uma empresa treina um modelo de síntese de voz em um corpus de áudio público. O modelo aprende padrões estatísticos de fala. Posteriormente, um usuário malicioso utiliza esse modelo para clonar a voz de um político, criando um áudio falso comprometedor. Quem é responsável? O desenvolvedor da tecnologia? O usuário que a desviou de seu propósito? A plataforma que hospedou o resultado? A resposta não é óbvia, e diferentes jurisdições começam a oferecer respostas divergentes.

 

II. A FRAGMENTAÇÃO DA CADEIA DE RESPONSABILIDADE

 

Uma das características mais perturbadoras do ecossistema de IA é a multiplicação de atores potencialmente responsáveis, cada um com graus variáveis de culpa, conhecimento e controle. Essa fragmentação desafia a lógica linear da imputação.

 

Tomemos o caso dos deepfakes pornográficos, que se tornaram uma epidemia silenciosa de violência digital. A vítima, frequentemente mulheres, sofre dano psicológico, reputacional e, em alguns casos, econômico. Mas a cadeia de responsabilidade é labiríntica. O desenvolvedor do algoritmo de síntese facial não criou a tecnologia com esse propósito. A plataforma que hospeda o conteúdo pode argumentar que não tinha conhecimento prévio da violação. O usuário que criou o deepfake pode estar em jurisdição diversa, dificultando a execução de sentença. A vítima, por sua vez, enfrenta custos processuais proibitivos para responsabilizar qualquer um desses atores.

 

O Marco Civil da Internet, em seus artigos 18 e 19, estabelece regimes de responsabilidade para provedores de conteúdo e hospedagem. Mas essas disposições foram concebidas para um cenário onde o conteúdo é criado por humanos e posteriormente hospedado. Quando o conteúdo é gerado por máquinas, a lógica se inverte. O provedor não é meramente um intermediário passivo; é, em certo sentido, um co-produtor do dano.

 

III. A ILUSÃO DA INTENCIONALIDADE ALGORÍTMICA

 

A jurisprudência brasileira, como a maioria das tradições jurídicas ocidentais, ancora a responsabilidade civil em conceitos como dolo e culpa. Dolo pressupõe vontade consciente de causar dano. Culpa pressupõe negligência ou imprudência. Ambos os conceitos exigem uma mente que delibera, que escolhe, que intenciona.

 

Mas o que significa intenção quando aplicado a um sistema de IA? Um modelo de deepfake não “intenciona” danificar ninguém. Ele executa operações matemáticas. Não há consciência, não há malevolência intrínseca. A malevolência reside na escolha humana de utilizá-lo para fins prejudiciais. Mas essa escolha humana é mediada por uma tecnologia que introduz camadas de opacidade.

 

Considere um avatar sintético criado para fins educacionais. A empresa que o desenvolveu implementou salvaguardas para evitar seu uso malicioso. Mas um usuário sofisticado consegue contornar essas proteções, utilizando o avatar para enganar pessoas em transações financeiras. O desenvolvedor é culpado? Tecnicamente, implementou medidas de segurança. Mas essas medidas eram suficientes? Essa é uma questão que a jurisprudência ainda não respondeu de forma consistente.

 

IV. A PROTEÇÃO DE DADOS COMO FUNDAMENTO ALTERNATIVO

 

Diante da insuficiência das categorias tradicionais de responsabilidade civil, emerge uma alternativa: a proteção de dados como fundamento para responsabilização. A Lei Geral de Proteção de Dados (LGPD) estabelece que dados pessoais, incluindo dados biométricos como voz e imagem, são ativos que merecem proteção jurídica específica.

 

Quando uma empresa coleta dados biométricos de uma pessoa sem consentimento explícito para fins de treinamento de modelos de síntese, viola a LGPD. Quando um modelo é utilizado para criar deepfakes, há violação do direito à privacidade e à autodeterminação informativa. Essa abordagem oferece vantagens: não requer prova de culpa tradicional, apenas demonstração de violação de direitos de dados. O ônus probatório se inverte, cabe ao responsável pelo tratamento de dados demonstrar que agiu licitamente.

 

Mas a LGPD também apresenta limitações. Ela regula o tratamento de dados, não necessariamente a criação de conteúdo sintético. Um deepfake criado exclusivamente a partir de dados públicos, vídeos disponíveis em redes sociais, por exemplo, pode não violar tecnicamente a LGPD, ainda que cause danos significativo.

 

V. A RESPONSABILIDADE OBJETIVA COMO HORIZONTE

 

Alguns ordenamentos jurídicos começam a explorar a responsabilidade objetiva como resposta ao desafio da IA. A ideia é simples: se você coloca em circulação uma tecnologia potencialmente perigosa, você responde pelos danos que ela causa, independentemente de culpa. Essa abordagem inverte a lógica tradicional, transferindo o ônus do risco para quem está em melhor posição para controlá-lo e mitigá-lo.

 

A União Europeia, através da proposta de Diretiva sobre Responsabilidade por IA, caminha nessa direção. O Brasil ainda não possui legislação específica, mas há sinais de movimento. A discussão sobre responsabilidade de plataformas digitais, que ganhou força após a aprovação do Marco Civil, começa a incorporar elementos de responsabilidade objetiva.

 

Para o contexto específico de deepfakes e clonagem de voz, uma abordagem de responsabilidade objetiva faria sentido. Quem desenvolve, treina ou disponibiliza tecnologia de síntese facial ou vocal assume o risco pelos danos que ela causa. Isso criaria incentivos econômicos para implementar salvaguardas mais robustas, para monitorar uso malicioso, para investir em detecção de conteúdo sintético.

 

VI. A QUESTÃO DA CAUSALIDADE COMPLEXA

 

Um aspecto frequentemente negligenciado é a complexidade da causalidade em contextos de IA. A responsabilidade civil tradicional pressupõe uma relação causal linear: A faz X, X causa dano Y a B. Mas quando IA está envolvida, a causalidade se torna multifatorial e não-linear.

 

Suponha que um avatar sintético seja utilizado para disseminar desinformação política. O dano, erosão da confiança pública, polarização social, é real. Mas qual é a causa? O desenvolvedor do avatar? O usuário que o operou? A plataforma que o hospedou? O algoritmo de recomendação que amplificou seu alcance? A falta de letramento digital da audiência? Todos esses fatores contribuem. Nenhum deles, isoladamente, é suficiente para explicar o dano.

 

Essa multiplicidade causal desafia a lógica binária da imputação jurídica. Não é possível dizer que A é responsável e B não é. Todos os atores na cadeia contribuem, em graus variáveis, para o resultado prejudicial. O direito precisa desenvolver ferramentas conceituais para lidar com essa realidade.

 

VII. CAMINHOS REGULATÓRIOS EMERGENTES

 

Diante dessa complexidade, algumas jurisdições começam a experimentar abordagens inovadoras. A Califórnia aprovou legislação específica sobre deepfakes pornográficos, criminalizando sua criação e distribuição. A União Europeia trabalha em regulação mais ampla sobre IA de alto risco. O Brasil, por sua vez, ainda está em fase de discussão, mas há sinais de que a questão entrará na agenda legislativa em breve.

 

Uma abordagem promissora é a combinação de responsabilidade objetiva com obrigações de due diligence. Empresas que desenvolvem ou disponibilizam tecnologias de síntese seriam responsáveis pelos danos, mas poderiam se exonerar demonstrando que implementaram medidas razoáveis de prevenção e monitoramento. Isso criaria um padrão de cuidado que evoluiria com a tecnologia.

 

Outra possibilidade é a criação de fundos de compensação, financiados por empresas de IA, para indenizar vítimas de deepfakes e conteúdo sintético malicioso. Isso reconheceria que, em muitos casos, identificar e responsabilizar o criador específico é impraticável, mas a vítima merece compensação.

­

VIII. CONCLUSÃO: RUMO A UM NOVO PARADIGMA

 

A responsabilidade civil diante de deepfakes, avatares e clonagem de voz não pode ser resolvida simplesmente estendendo categorias jurídicas existentes. O problema é mais profundo: a tecnologia de IA introduz uma forma de agência que não se encaixa nas pressuposições do direito tradicional.

­

O caminho adiante exige criatividade jurídica. Não se trata apenas de adaptar a culpa e o dolo a novos contextos, mas de reconhecer que essas categorias podem ser insuficientes. A responsabilidade objetiva, a proteção de dados como fundamento alternativo, a multiplicação de atores responsáveis—essas são ferramentas que o direito precisa aprender a utilizar.

 

Para o Brasil especificamente, há uma oportunidade de liderança. Ao invés de simplesmente importar soluções de outras jurisdições, o país poderia desenvolver um marco regulatório que reconheça a especificidade do problema, que proteja as vítimas de forma efetiva, mas que também não sufoque a inovação tecnológica. Isso exigiria diálogo entre juristas, tecnólogos, empresas e sociedade civil.

 

A inteligência artificial não é inerentemente boa ou má. Mas quando adquire a capacidade de replicar identidades humanas, ela toca em algo fundamental: a autonomia, a dignidade, a integridade da pessoa. O direito não pode ficar indiferente. Precisa evoluir, e precisa fazê-lo com urgência.

 

Breno Luis Moura Gomes

Minibio: Bacharel em Direito pela Universidade São Judas Tadeu (USJT). Mestrando em Direito Digital, Inovação e Novas Tecnologias (LL.M.) pelo IBMEC. Advogado com atuação nas áreas de telecomunicações, mercado de capitais e real estate. Especialista em Resolução de Problemas e Tomada de Decisão pela FECAP.

­

Leia também: