Quem é dono do que uma IA produz? A pergunta parece filosófica. Na prática, ela determina se uma empresa pode proteger seus ativos de marketing gerados por IA, se um creator pode registrar uma ilustração feita com auxílio de IA, e se uma plataforma fica exposta quando sua ferramenta de IA produz output que se assemelha à obra protegida de terceiro.
O direito brasileiro tem uma posição — mas ainda não tem uma resposta completa.
O que a LDA exige para reconhecer autoria
A Lei de Direitos Autorais (LDA, Lei nº 9.610/1998) protege obras intelectuais criadas por pessoas físicas. O texto é explícito: o autor é a pessoa física que cria obra literária, artística ou científica. Pessoas jurídicas podem deter direitos patrimoniais por cessão, mas não são autoras originárias.
Sistemas de IA não são pessoas físicas. Pelo regime atual da LDA, obra gerada inteiramente por sistema de IA — sem contribuição criativa humana relevante — não se enquadra na definição de obra protegida. Ela pode cair em domínio público desde o momento de sua criação.
Outputs 100% gerados por IA: domínio público ou área cinzenta?
O cenário mais claro: um usuário digita um prompt de uma palavra num gerador de imagens e publica o primeiro resultado sem modificação. A contribuição humana é mínima. Pelo regime da LDA, há argumento robusto de que nenhuma proteção autoral se aplica a esse output.
A consequência prática: qualquer pessoa pode copiar, reproduzir e usar essa imagem sem infringir direito autoral — porque ninguém o detém. Para empresas que constroem bibliotecas de marketing com assets gerados por IA, isso cria risco específico: concorrentes podem usar os mesmos outputs livremente, e os "ativos" podem não ser defensáveis como propriedade intelectual.
Contribuição humana: onde a proteção pode surgir
A análise muda conforme a contribuição humana cresce. Três tipos de contribuição que fortalecem o argumento autoral:
- Prompt elaborado: prompt detalhado e iterativo com escolhas criativas — composição, estilo, exclusões específicas, refinamento progressivo — reflete autoria criativa, mesmo que a renderização final seja feita pelo modelo
- Seleção e curadoria: escolher qual output dentre vários é o trabalho final envolve julgamento estético — forma de decisão criativa análoga à fotografia (o fotógrafo não cria a cena, mas a seleciona)
- Edição pós-produção: modificar, combinar, retocar ou compositar output de IA com elementos criados por humano gera obra derivada com direitos autorais próprios nas partes acrescentadas
Quanto mais o humano conseguir demonstrar decisão criativa ao longo do processo, mais sólido o argumento de proteção. Documentação importa: logs de prompt, histórico de versões, critérios de seleção.
Dados de treinamento e direitos de terceiros
Um risco distinto mas relacionado: usar modelos de IA treinados com obras protegidas. A LDA não prevê exceção explícita de text and data mining para treinamento de IA — lacuna que cria incerteza jurídica para desenvolvedores e usuários de modelos.
O risco se materializa com mais clareza quando o output se assemelha a uma obra protegida específica de forma que vai além de estilo, ou quando o output pode substituir a obra protegida no mercado. A maioria dos grandes fornecedores de IA inclui limitações de responsabilidade por infração de PI nos próprios termos. Entender o que o contrato com o fornecedor cobre — ou não cobre — é essencial antes de usar outputs de IA em escala.
PL nº 2.338/2023: o que o Marco Legal da IA muda
O PL nº 2.338/2023 (Marco Legal da IA) está em tramitação no Congresso Nacional. Propõe regulação por nível de risco, inspirada no AI Act europeu. Pontos relevantes para negócios que usam IA em conteúdo:
- Obrigação de transparência: sistemas que interagem com usuários precisam se identificar como IA quando questionados
- Rotulagem de conteúdo sintético: conteúdo de áudio, vídeo ou imagem gerado por IA pode precisar ser identificado como tal
- Responsabilidade civil: operadores de sistemas de alto risco respondem pelos danos causados por esses sistemas
- Usos proibidos: pontuação social e manipulação por técnicas subliminares
O PL não resolve diretamente a questão de autoria — isso permanece matéria da LDA e de eventual reforma. Mas adiciona camada de compliance para qualquer empresa que implanta sistemas de IA no Brasil. Acompanhar a tramitação e iniciar avaliações de impacto interno agora é mais eficiente do que reagir após a promulgação.
Cláusulas de IA em contratos
Qualquer contrato envolvendo criação de conteúdo — com creator, agência ou freelancer — deve agora tratar uso de IA explicitamente. Elementos mínimos:
- Declaração: o contrato exige que o creator declare uso de IA? Em que circunstâncias?
- Garantia de PI: o creator garante que o conteúdo gerado por IA não viola direitos de terceiros e que tem (ou limpou) direitos sobre os inputs de dados de treinamento
- Rotulagem: obrigação de identificar conteúdo gerado por IA quando exigido por lei ou plataforma
- Titularidade dos outputs: quem detém os direitos sobre o conteúdo assistido por IA? Isso exige cláusula de cessão específica
- Confidencialidade: prompts e dados sensíveis inseridos em sistemas de IA devem ser tratados como informação confidencial
Atuamos em questões de IA e propriedade intelectual no Brasil. Nossa prática cobre IA e direito e propriedade intelectual. Ver também: Cessão de imagem do creator: como fazer certo.
FAQ
A LDA (Lei nº 9.610/1998) protege obras de pessoas físicas, não de sistemas. Output inteiramente gerado por IA sem contribuição criativa humana relevante pode não ter proteção autoral no Brasil. Com contribuição humana substancial — prompt detalhado, curadoria de outputs, edição e refinamento — a proteção pode surgir em favor do usuário humano. Os termos de cada fornecedor (OpenAI, Anthropic, Google etc.) também atribuem direitos sobre os outputs e devem ser lidos.
Sim, desde que haja contribuição criativa humana relevante. A LDA exige autoria humana, mas não proíbe o uso de ferramentas — câmera, software de edição ou IA. Quanto maior a contribuição humana na concepção, seleção e refinamento, mais robusta a posição. O Escritório de Direitos Autorais (EDA) da Fundação Biblioteca Nacional registra obras literárias, artísticas e congêneres; programas de computador têm regime próprio de registro no INPI. Não há, hoje, orientação administrativa expressa no Brasil exigindo declaração de uso de IA no momento do registro. Documentar o processo criativo é prudente.
Há risco jurídico relevante, especialmente em jurisdições com litígios ativos (EUA, UK, UE). No Brasil, a LDA não prevê exceção explícita de text and data mining para treinamento de IA, criando incerteza. O risco é maior quando o output reproduz elementos reconhecíveis de obras protegidas ou interfere na exploração econômica pelos titulares. Cláusulas de indenização nos contratos com fornecedores de IA são fundamentais para mitigar essa exposição.
Não. O PL nº 2.338/2023 (Marco Legal da IA) está em tramitação no Congresso Nacional. Propõe regulação por nível de risco, inspirada no AI Act europeu, com obrigações de transparência, rotulagem de conteúdo sintético, vedação de pontuação social e responsabilidade civil por sistemas de alto risco. Empresas devem acompanhar a tramitação e iniciar avaliação de impacto interna antes da promulgação.
Mínimo sugerido: (i) declaração sobre uso de IA na produção do conteúdo; (ii) garantia de que o material não viola direitos de terceiros; (iii) obrigação de identificar conteúdo sintético quando exigido; (iv) responsabilidade pelo input fornecido a sistemas de IA; (v) titularidade dos outputs; (vi) confidencialidade sobre prompts e dados sensíveis. A cláusula deve estar alinhada à política interna de IA da empresa.
