Mídia sintética não é mais preocupação de futuro para creators no Brasil. Ferramentas que produzem deepfakes convincentes de vídeo e áudio chegaram ao consumo. Creators com perfil público já se descobriram "endossando" plataformas de criptomoedas, produtos de emagrecimento ou mensagens políticas que jamais associariam à sua imagem.
Este artigo cobre o que a lei brasileira já oferece — sem esperar regulação específica de IA — e a sequência operacional para as primeiras 24 horas depois de um deepfake aparecer.
O que um deepfake viola pela lei brasileira hoje
Não existe uma lei específica única para deepfake no Brasil, mas o ato fica na interseção de múltiplos arcabouços legais. Um deepfake não autorizado da imagem e voz de um creator costuma acionar todos os seguintes simultaneamente:
Direitos da personalidade. A Constituição Federal (art. 5º, X) e o Código Civil (arts. 11-21) protegem honra, imagem e voz como direitos da personalidade inalienáveis. Uso sem autorização, especialmente para fins comerciais, gera pleito direto.
Direitos conexos (LDA). A Lei de Direitos Autorais (Lei nº 9.610/1998), no art. 89 e seguintes, protege os direitos do intérprete sobre suas interpretações — o uso da voz e performance de um creator em conteúdo sintético produzido sem autorização é exploração indevida.
Proteção de dados. Dados biométricos (rosto, padrões de voz) são dados pessoais sensíveis sob LGPD art. 11, exigindo base legal específica. Treinar modelo com dados biométricos de uma pessoa, ou processá-los para gerar conteúdo sintético dela, sem consentimento ou outra base legal válida, é tratamento ilícito.
Tipos penais. A depender do conteúdo, o deepfake pode ainda configurar crimes contra a honra (Código Penal arts. 138-140 — calúnia, difamação, injúria), estelionato (art. 171) e falsidade ideológica (art. 299). A qualificação penal importa para a via criminal, separada da cível.
As primeiras 24 horas
Velocidade e documentação no primeiro dia determinam a trajetória da resposta.
Documentar tudo
Antes de qualquer coisa: print do vídeo, URL, perfil que postou, timestamp, contagem de views, comentários. Se o conteúdo está migrando entre plataformas, capturar cada instância. Isso vira a base probatória para tudo que vem depois.
Para casos de maior gravidade — alta repercussão, prejuízo monetário, dano reputacional severo — solicitar ata notarial (registro de fato em cartório). Tribunais brasileiros dão peso probatório significativo à ata notarial documentando conteúdo digital, porque ela congela o estado da publicação online em um momento específico.
Takedown na plataforma
As principais plataformas (Instagram, TikTok, YouTube, X, produtos Meta) têm fluxos específicos de denúncia para deepfake, impersonação e mídia sintética. Usar a categoria mais específica disponível — denúncias genéricas de "abuso" tendem a demorar mais. A maioria das plataformas também tem canais de takedown por copyright que podem ser acionados em paralelo, se o deepfake inclui qualquer áudio ou elemento visual original do creator.
Tempo de resposta varia. Algum conteúdo some em horas; outro, em dias. Escalonamento persistente por canais verificados (suporte ao creator, programas de parceria) ajuda.
Comunicar proativamente
Em poucas horas, publicar alerta público pelos canais verificados: plataformas originais, lista de email, parceiros de marca. A comunicação faz duas coisas:
- Mitiga conversão de espectadores em vítimas do golpe subjacente (se o deepfake está vendendo algo fraudulento)
- Protege parceiros e relações de marca de confusão
Linguagem factual. Evitar especulação sobre quem produziu. Referenciar o processo de takedown em curso.
Ação cível
Se o autor do deepfake é identificável e está em jurisdição brasileira, ação cível sob os arts. 11-21 do Código Civil (direitos da personalidade) combinada com a LDA (direitos conexos) é o caminho padrão. Os danos podem incluir:
- Dano moral — prejuízo não-patrimonial pela violação de honra e imagem
- Dano material — perdas reais (parcerias perdidas, contratos perdidos, impacto de marca) e qualquer benefício comercial obtido pelo ofensor com o uso indevido
Tutela de urgência pedindo retirada pode ser concedida por juízes brasileiros quando a documentação é clara e o dano é em curso. Roda em paralelo ao takedown da plataforma — a remoção judicial vincula a plataforma juridicamente mesmo que o takedown voluntário trave.
Ação criminal
Ação criminal corre em paralelo à cível, não como substituta. A queixa-crime (para crimes contra honra) ou representação (para estelionato) é apresentada à polícia ou diretamente à promotoria, conforme a infração. A documentação coletada para a cível é reusada.
Processos criminais costumam ser mais lentos que os cíveis, mas produzem efeitos diferentes — atingem o ofensor pessoalmente, não só a indenização, e o registro criminal tem peso reputacional em conduta posterior.
E quando o autor está fora do Brasil
Muitas operações de deepfake têm origem fora do Brasil. Jurisdição brasileira ainda pode se aplicar se o conteúdo é acessível no Brasil e atinge pessoa em território nacional (Marco Civil art. 11), mas execução de decisão contra réu estrangeiro depende de cooperação internacional, que é lenta.
Sequência prática:
- Imediato: takedown via plataforma com operação no Brasil (que pode ser ordenada por juízes brasileiros, independente de onde o conteúdo foi originado)
- Curto prazo: ação cível contra a própria plataforma se necessário, incluindo obrigação de preservar dados do postante para investigação
- Médio prazo: investigação para identificar a pessoa real por trás do deepfake; só então a ação cível/criminal contra esse indivíduo é prática
A maioria dos creators, na prática, foca em takedown e proteção reputacional em vez de rastrear o ofensor através de jurisdições — a não ser que o valor monetário ou motivação política torne o esforço justificável.
O que pedir nos contratos daqui pra frente
Como medida defensiva, contratos com marcas, plataformas e qualquer parte que processa imagem ou voz do creator devem incluir cláusulas explícitas sobre:
- Proibição de gerar conteúdo sintético a partir da imagem, voz ou performance do creator sem consentimento escrito específico para esse uso sintético
- Direitos de auditoria sobre como dados biométricos capturados (ex.: durante uma gravação) são armazenados, retidos e descartados
- Indenização por uso sintético não autorizado originado de dados compartilhados durante o engajamento
- Cobertura de seguro específica para deepfake/impersonação onde aplicável
Essas cláusulas não são padrão de mercado no Brasil ainda. Adicioná-las muda a postura do creator de reativa (responder a deepfakes depois) para preventiva (controlar quem tem acesso aos inputs que tornam deepfakes convincentes possíveis).
O que muda quando a regulação específica de IA passar
O arcabouço regulatório brasileiro de IA está em discussão legislativa, não sancionado no momento desta redação. A direção esperada inclui dispositivos específicos sobre mídia sintética, obrigações de transparência e responsabilidade de operadores por sistemas de IA usados para produzir conteúdo lesivo. Quando aprovada, a base legal acima será reforçada — não substituída.
Por agora: o arcabouço existente é suficiente. O desafio é operacional, não legal. Creators com documentação, relacionamento com plataformas e sequência de resposta rápida resolvem incidentes de deepfake em dias. Sem isso, em meses.
FAQ
Primeiro, documentar: print do vídeo, URL, screenshot do perfil que postou, captura da contagem de visualizações no momento. Segundo, notificar a plataforma — Instagram, TikTok, YouTube e Meta têm formulários específicos para deepfake e impersonação. Terceiro, preservar provas em ata notarial (cartório) se o caso for grave. Em paralelo: comunicar parceiros e seguidores via canais oficiais alertando sobre o conteúdo falso, para mitigar dano reputacional e impedir conversões fraudulentas.
Não há uma lei específica única, mas o ato é coberto por múltiplos dispositivos: Constituição art. 5º X (proteção à honra e imagem); Código Civil arts. 11-21 (direitos da personalidade — nome, imagem, voz); LDA (Lei nº 9.610/1998) art. 89 e seguintes (direitos conexos sobre voz e interpretação); LGPD (Lei nº 13.709/2018) art. 11 (dado biométrico é dado sensível, exige base legal específica); Código Penal arts. 138-140 (calúnia, difamação, injúria) quando o conteúdo for ofensivo. A combinação dá fundamento robusto para ação cível e/ou criminal.
Sim. Uso não autorizado da imagem para fins comerciais ou que cause dano à honra gera, em regra, dano moral indenizável (Código Civil arts. 11-21 e jurisprudência consolidada do STJ). O valor varia conforme alcance da publicação, gravidade do conteúdo, dolo do agente e capacidade econômica do ofensor. Em casos com benefício comercial indevido (deepfake vendendo produto), pode também ser pleiteado dano material — o lucro obtido pelo uso indevido.
Pelo Marco Civil da Internet (Lei nº 12.965/2014, art. 19), a responsabilidade civil da plataforma por conteúdo de terceiro depende de ordem judicial específica para retirada — exceto em casos de violação de direitos autorais (regra própria) e cenas de nudez ou ato sexual sem consentimento (art. 21, regra mais célere). Para deepfake, o caminho mais rápido é geralmente: notificação extrajudicial → tutela de urgência judicial pedindo remoção. O juiz costuma conceder liminar quando há documentação clara.
A questão é mais complexa — envolve jurisdição internacional. Se o conteúdo está acessível no Brasil e atinge titular brasileiro, há fundamento para jurisdição brasileira sob o Marco Civil (art. 11). Mas execução de decisão contra réu estrangeiro depende de cooperação internacional. O caminho prático costuma ser: takedown imediato pela plataforma (que tem operação no Brasil) + ação cível contra a plataforma para preservação de dados do autor + investigação para identificar o responsável real.
