Uso de Inteligência Artificial em vídeos íntimos falsos pode virar crime com pena de até 4 anos

Proposta aprovada em comissão da Câmara dos Deputados prevê punição para manipulação de imagem sem consentimento e obriga plataformas a remover conteúdo sem ordem judicial.

Imagine abrir as redes sociais e se deparar com um vídeo íntimo seu que nunca existiu. Sua imagem foi usada, sua voz recriada e, mesmo sem ter feito nada daquilo, o conteúdo já está circulando pela internet. Essa é a realidade enfrentada por vítimas de vídeos falsos produzidos com inteligência artificial — e um problema que a Câmara dos Deputados quer enfrentar com mais rigor.

A Comissão de Comunicação aprovou um projeto que proíbe o uso de IA para criar vídeos sexualmente explícitos e não consensuais, utilizando imagens ou sons de pessoas reais. O texto determina que, ao identificar esse tipo de material, os provedores de internet devem agir rapidamente para interromper o acesso, impedir o impulsionamento e a monetização, além de evitar a replicação do conteúdo. Caso o provedor seja notificado, a solicitação precisa conter dados que identifiquem a vítima e o vídeo; caso contrário, será considerada inválida.

A proposta altera o Marco Civil da Internet, que ainda não contempla conteúdos gerados por inteligência artificial, segundo o relator, deputado Gilvan Maximo (Republicanos-DF). Ele argumenta que as plataformas têm condições técnicas de remover esse tipo de material sem a necessidade de decisão judicial. “As plataformas possuem plena capacidade técnica e recursos suficientes para estabelecer métodos de remoção automática de conteúdos”, afirmou.

Além disso, o projeto inclui alterações no Código Penal. A pena para o crime de exposição da intimidade sexual poderá ser aumentada em um terço se houver uso de IA para manipular ou produzir o vídeo. Se esse conteúdo for divulgado na internet, a punição poderá subir em dois terços ou até triplicar. Também será criado o crime específico de manipulação não autorizada de imagem, com pena de 2 a 4 anos de prisão e multa — que pode dobrar se a vítima for menor de idade.

Para enfrentar o problema de forma mais ampla, o texto propõe a criação de um programa de proteção às vítimas, com ações voltadas à prevenção e apoio. Entre elas, estão a divulgação de canais de denúncia, capacitação de educadores e assistência jurídica e psicológica às vítimas.

O texto aprovado é um substitutivo de Gilvan Maximo aos projetos de lei 3488/24, de Alexandre Guimarães (MDB-TO), e 4768/24, de Juninho do Pneu (União-RJ). A proposta ainda será avaliada pela Comissão de Constituição e Justiça e de Cidadania antes de seguir para votação no Plenário. Para virar lei, também precisa passar pelo Senado.

DIFERENÇA EM RELAÇÃO A LEGISLAÇÃO VIGENTE

Hoje, já existem crimes previstos no Código Penal que podem ser aplicados a situações de uso indevido da imagem de uma pessoa — como calúnia, difamação, injúria e crimes contra a honra — além da exposição da intimidade sexual (Lei 13.718/2018). No entanto, a legislação atual não trata de forma específica o uso de inteligência artificial para criar conteúdos falsos, como vídeos íntimos manipulados digitalmente (deepfakes), especialmente quando a montagem é feita com imagens ou sons alterados que não correspondem a uma gravação real.

Ou seja, há lacunas legais, porque a legislação foi pensada para conteúdos reais ou montagens tradicionais, e não para manipulações com IA que criam imagens ou áudios falsos, mas convincentes. Isso permite brechas, como argumentar que o conteúdo não retrata uma situação real, portanto, não se enquadra claramente nas leis atuais.

O projeto aprovado pela comissão busca justamente tipificar de forma específica essas condutas, deixando claro que manipular imagem ou som de alguém para simular nudez, ato sexual ou situação íntima sem consentimento é crime, mesmo que a cena seja totalmente falsa.

Com informações da Agência Câmara Notícias