Importante: O PL 2338/2023 é um projeto de lei em tramitação no Senado Federal. Não é lei. Este artigo descreve o que o projeto propõe — não o que a lei brasileira atualmente exige.

O que o projeto propõe

O PL 2338/2023, de autoria do Senador Rodrigo Pacheco, adota uma abordagem baseada em risco, similar ao AI Act da União Europeia. Propõe quatro categorias de sistemas de IA:

Risco inaceitável (proibido): Sistemas que manipulam pessoas de forma subliminar ou exploram vulnerabilidades; pontuação social pelo Estado; e identificação biométrica remota em tempo real em espaços públicos em contextos específicos.

Alto risco: Sistemas que tomam ou influenciam decisões em áreas sensíveis — saúde, educação, emprego, crédito, seguridade social, segurança e aplicação da lei. Para esses, o projeto propõe: supervisão humana obrigatória, documentação e registro, transparência para os afetados e avaliações de impacto.

Risco limitado: Apenas obrigações de transparência — sistemas que interagem com usuários devem se identificar como IA.

Risco mínimo: Sem obrigações específicas propostas. A maioria das ferramentas de IA usadas para criação de conteúdo se enquadra aqui.

O que isso significa para creators e negócios digitais

Se você usa ferramentas de IA como assistentes criativos ou de produtividade — para redação, geração de imagens, código ou traduções —, o projeto na versão atual impõe obrigações mínimas para você.

As cargas mais pesadas recaem sobre quem desenvolve ou opera sistemas de IA de alto risco. Uma startup construindo uma ferramenta de seleção de candidatos com IA enfrentaria requisitos substanciais. Um creator que usa IA generativa para conteúdo, não.

Identificação de conteúdo gerado por IA: O projeto propõe que conteúdo gerado por IA que possa ser confundido com conteúdo humano seja identificado como tal em contextos relevantes. Isso alinha-se com a direção das orientações do CONAR e boas práticas internacionais em desenvolvimento.

ANPD como reguladora de IA

O projeto propõe a ANPD como autoridade primária de supervisão de IA, em articulação com reguladores setoriais — BACEN para IA financeira, ANS para IA em saúde, entre outros. Isso amplia a infraestrutura de enforcement que a ANPD já tem pela LGPD.

O que já se aplica hoje (sem o PL 2338)

Os frameworks existentes já regulam o uso de IA no Brasil:

  • LGPD, art. 20: Decisões automatizadas que afetam pessoas devem ser informadas; o titular tem direito de solicitar revisão humana.
  • CDC: Serviços com IA oferecidos a consumidores estão sujeitos às regras de proteção ao consumidor.
  • Lei de direitos autorais: Usar obras protegidas de terceiros para treinar modelos de IA sem autorização pode violar direitos autorais — área de debate jurídico ativo no Brasil.
  • Código Civil: Criar representações realistas de pessoas reais com IA sem consentimento pode violar direito de imagem.

FAQ

O PL 2338 já é lei?

Não. O PL 2338/2023 é um projeto de lei em tramitação no Senado Federal. Enquanto não for aprovado e sancionado pelo Presidente da República, não produz efeitos jurídicos.

O que o PL 2338 classifica como sistema de IA de alto risco?

O projeto classifica como alto risco sistemas que tomam ou influenciam decisões em áreas sensíveis — como saúde, educação, emprego, crédito e aplicação da lei. Para esses sistemas, o texto propõe obrigações adicionais de transparência, governança e supervisão humana.

O PL 2338 afeta quem usa IA para criar conteúdo?

Para a maioria dos criadores que usam ferramentas de IA como assistentes criativos, as obrigações propostas seriam mínimas. As cargas mais pesadas recaem sobre quem desenvolve ou opera sistemas de alto risco — não sobre usuários finais dessas ferramentas.

Quem fiscalizaria a IA no Brasil pelo PL 2338?

O projeto propõe a ANPD (Autoridade Nacional de Proteção de Dados) como autoridade competente para supervisão de sistemas de IA, em articulação com reguladores setoriais.

O PL 2338 proíbe deepfakes?

O projeto prevê restrições a aplicações de risco inaceitável — incluindo manipulação subliminar e identificação biométrica em tempo real em espaços públicos. Deepfakes não consentidos já se enquadram em proteções existentes (direito de imagem, LGPD) e podem ser abrangidos por vedações específicas do PL, dependendo da redação final.

O que já se aplica à IA hoje, sem o PL 2338?

LGPD (Art. 20 — direito à revisão humana de decisões automatizadas), CDC para serviços ao consumidor, lei de direitos autorais para uso de obras em treinamento de modelos e o Código Civil para violação de direito de imagem.

// ÁREA DE PRÁTICA
Monika Hosaki
Autora
Monika Hosaki

Managing Partner e fundadora da Hosaki Advogados. Atuação em propriedade intelectual, direito digital e creator economy.