Notícias
ESPAçO ABERTO
Deepfakes, LGPD e o Modelo Dinamarquês: Rumo a um Novo Paradigma de Proteção da Identidade Digital Post Mortem
Autor: Gianpaulo Scaciota
Data de produção: 04/11/2025
Os artigos postados neste canal são apresentados por associadas e associados e refletem visões, análises e opiniões pessoais, não correspondendo, necessariamente, ao posicionamento da AASP.
Prefácio
A era digital, impulsionada pela IA, oferece ferramentas que desafiam a realidade. Minha experiência pessoal, ao animar fotos de familiares falecidos com IA, evidenciou um dilema: até que ponto a manipulação digital colide com o direito digital, especialmente sobre a imagem e memória de quem já partiu? Essa reflexão foi intensificada pela iniciativa legislativa dinamarquesa, que propõe uma lei específica contra deepfakes, protegendo a identidade digital. A proposta dinamarquesa, que resguarda a imagem e voz post mortem, reforça que direitos digitais transcendem a existência física. Este artigo explora as interseções entre deepfakes, direitos individuais (incluindo post mortem) e o panorama jurídico emergente, usando minha experiência e a legislação dinamarquesa como base para discutir os desafios do direito digital.
Proteção da Identidade Digital na Era dos Deepfakes: A LGPD e o Modelo Dinamarquês
O avanço da IA popularizou os deepfakes, criações ultrarrealistas que manipulam imagens, vídeos e áudios, gerando conteúdo falso com riscos de desinformação, fraude e manipulação. A Dinamarca, pioneira na Europa, propõe legislação específica para proteger a identidade digital contra deepfakes. No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD), Lei nº 13.709/2018, é pertinente, embora não mencione deepfakes. Sua abrangência sobre dados pessoais, especialmente biométricos (imagem e voz), é fundamental. A lei exige consentimento explícito para dados sensíveis e que o tratamento tenha propósitos específicos e legítimos.
A criação de deepfakes sem consentimento e para finalidade distinta seria violação. A LGPD garante direitos como retificação e exclusão de dados, permitindo a remoção de deepfakes não autorizados. A ANPD fiscaliza e sanciona usos indevidos, restringindo o tratamento de dados sensíveis para deepfakes sem consentimento. Contudo, a LGPD tem limitações: não aborda atribuição de autoria ou responsabilidade em conteúdo gerado por IA, nem mecanismos específicos para remoção rápida de deepfakes viralizados. Além disso, foca na proteção de dados em vida, não nos direitos de imagem ou autorais post mortem, como a legislação dinamarquesa, que estende a proteção por 50 anos após a morte do artista e prevê indenização.
Para um combate mais eficaz no Brasil, a LGPD poderia ser aprimorada com diretrizes específicas para IA generativa, inspirada na Dinamarca, incluindo responsabilidade das plataformas e extensão dos direitos de imagem e voz para além da vida do indivíduo.
Comparação Direta
Se o Brasil adotasse lei similar à dinamarquesa, os setores mais impactados/protegidos seriam:
1. Indústria Criativa e de Entretenimento: Protegida contra uso não autorizado de imagem/voz de artistas; impactada por revisão de contratos e práticas de IA.
2. Tecnologia e Redes Sociais: Mais impactadas, com maior responsabilidade pela disseminação de deepfakes. Exigiria investimentos em detecção, políticas rigorosas e mecanismos de remoção, sob risco de multas.
3. Mídia e Jornalismo: Protegido contra notícias falsas via deepfakes, preservando credibilidade; impactado pela necessidade de verificação e detecção.
4. Setor Financeiro e Bancário: Protegido contra fraudes com deepfakes de voz/vídeo; impactado pela necessidade de fortalecer segurança e autenticação.
5. Setor Jurídico e de Segurança Pública: Impactado por aumento de demanda por especialistas em cibercrime e direito digital, além de novos litígios. A legislação protegeria a integridade da identidade digital e a confiança pública, exigindo adaptação e responsabilidade dos envolvidos.
A questão dos memes com pessoas famosas gerados por IA utilizando sua voz e imagem
É complexa e possui diferentes nuances legais no Brasil e na Dinamarca.
No Brasil: Não há lei específica para “memes com deepfakes”. Contudo, pode esbarrar em:
• LGPD: Imagem e voz são dados pessoais. Uso sem consentimento, para fins diversos, pode ser tratamento indevido.
• Código Civil: Garante direito à imagem, honra, privacidade. Meme difamatório, vexatório, causador de dano moral ou comercial sem autorização pode gerar ação judicial por indenização e remoção.
• Lei de Direitos Autorais: Menos comum, mas pode haver violação dependendo do uso.
• Liberdade de Expressão vs. Direitos Individuais: Memes se enquadram na liberdade de expressão, mas não é absoluta. A avaliação judicial considera finalidade (humor vs. malícia), prejuízo e contexto (ficção vs. indução ao erro). Há grande probabilidade de ser ilícito se houver uso indevido da imagem/voz, causando danos ou para fins comerciais sem consentimento. Existe proposta de Reforma do Código Civil incluindo capítulo sobre direito digital, cuja versão final ainda é incerta após tramitação no Congresso.
Na Dinamarca (com a lei proposta): Seria mais restritiva:
• Proteção Explícita da Identidade Digital: Uso não autorizado da imagem/voz em meme deepfakes, mesmo para humor, seria proibido.
• Direito de Remoção e Compensação: Pessoa afetada (ou herdeiros, por 50 anos pós-morte) teria direito a remoção e compensação.
• Responsabilidade das Plataformas: Plataformas online seriam multadas se não removerem conteúdo solicitado.
• Menor Margem para “Humor”: Ênfase na proteção do direito individual à imagem, mesmo em contextos “inócuos”. A lei dinamarquesa focaria mais no “uso não autorizado da identidade” do que no “dano causado”.
Extensão de Direitos Pós-Morte (Dinamarca)
A proposta dinamarquesa estende o direito de imagem e voz por 50 anos após a morte, especialmente para artistas. Durante este período, herdeiros podem solicitar remoção de deepfakes não autorizados (prejudiciais/indevidos) e demandar compensação por uso comercial ou danoso. Isso reconhece que legado e imagem póstuma merecem proteção contra manipulação por deepfakes. A lei dinamarquesa se destaca por sua especificidade, escopo e durabilidade dos direitos na proteção contra deepfakes.
Conclusão
Minha vivência com a animação de fotos por IA, que “reviveu” meus pais, foi o catalisador, evidenciando o paradoxo digital: tecnologia fascinante que cria riscos de manipulação indevida da imagem/voz de quem já partiu, exigindo limites éticos e jurídicos claros. Exploramos a interseção de deepfakes, direitos individuais e o panorama jurídico emergente, com a iniciativa dinamarquesa. Discutimos as capacidades e limitações da LGPD no Brasil: robusta para dados biométricos em vida, mas deficiente em proteção post mortem, responsabilidade de plataformas e remoção ágil de conteúdo.
A proposta dinamarquesa se destaca, estendendo direitos de imagem/voz por 50 anos após a morte de artistas e legitimando herdeiros. Impõe responsabilidade a setores e foca na proteção da identidade digital, independentemente da intenção. Minha posição alinha-se à liberdade de expressão, com limites na dignidade e direitos personalíssimos. Defendo menor interferência estatal, propondo a autonomia do indivíduo. O exemplo de Paul Walker (uso de deepfakes como homenagem) ilustra usos positivos.
A solução mais coerente é criar um mecanismo legal, inspirado na doação de órgãos, permitindo que o cidadão disponha, em vida, sobre o destino e uso de sua imagem/voz após o falecimento. Isso empodera o titular, estabelece referencial para herdeiros/plataformas, minimizando intervenções estatais e equilibrando inovação, liberdade de expressão e respeito à memória na era da IA.
Gianpaulo Scaciota
Minibio: Advogado. Mediador Certificado pelo IASP. Mestre em Direito pela Fadisp. Pós-Graduando PUC/RS Direito Digital.