O uso de inteligência artificial para criar imagens falsas de mulheres em situações sexualizadas deixou de ser apenas um problema tecnológico. Essa prática passou a ser reconhecida como uma forma grave de violência digital, com reflexos no direito penal, civil e nas relações de consumo.
Casos recentes revelam como ferramentas de IA generativa vêm sendo utilizadas para alterar fotografias reais retiradas de redes sociais, criando imagens íntimas falsas sem qualquer consentimento das pessoas retratadas. Muitas dessas imagens ficam acessíveis a qualquer usuário, independentemente de idade ou vínculo com a vítima, o que amplia de forma significativa os danos à reputação, à vida profissional e à saúde emocional das mulheres atingidas.
O debate ganhou força após a atuação das autoridades contra o uso indevido da inteligência artificial Grok, vinculada à plataforma X. O Ministério Público Federal, a Autoridade Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) emitiram recomendações formais exigindo a adoção imediata de barreiras técnicas para impedir a criação de imagens sexualizadas de mulheres e crianças reais.
Entre as medidas determinadas estão a implementação, a curto prazo, de procedimentos técnicos e operacionais capazes de identificar, revisar e bloquear esse tipo de conteúdo. Diante da pressão institucional, a empresa anunciou a restrição da funcionalidade que permite “remover roupas” de pessoas em fotos, limitando seu uso a assinantes. No entanto, a medida não elimina o problema, apenas o restringe, mantendo o risco de novas violações.
Violência psicológica e deepfakes: o enquadramento penal
A criação e a divulgação de imagens íntimas falsas encontram respaldo no artigo 218-C do Código Penal que criminaliza a divulgação, por qualquer meio, de cenas de sexo, nudez ou pornografia sem o consentimento da vítima, inclusive por sistemas de informática ou comunicação em massa.
Além disso, desde 2021, o artigo 147-B do Código Penal tipifica a violência psicológica contra a mulher, punindo condutas que causem dano emocional por meio de humilhação, manipulação, degradação ou controle.
Em abril de 2025, a legislação avançou ao prever aumento de pena quando esse tipo de violência é praticado com o uso de inteligência artificial ou de recursos tecnológicos capazes de alterar imagem ou som da vítima. Com a alteração, a pena máxima passou a ser de três anos de reclusão.
Exposição indevida e indenização por dano moral
Nos casos de deepfakes sexuais, o dano emocional é juridicamente presumido. A simples criação e circulação de uma imagem íntima falsa, já representa, por si só, uma violação grave à dignidade da mulher. Não é necessário demonstrar sofrimento psicológico concreto, pois o prejuízo decorre da própria ofensa aos direitos da personalidade.
Além das possíveis consequências na esfera penal, a prática também produz efeitos relevantes no campo civil. A exposição indevida da imagem com conotação sexual configura dano moral, independentemente de prova específica de abalo emocional.
A violação da honra, da imagem, da intimidade e da dignidade é suficiente para fundamentar o dever de indenizar, refletindo o entendimento de que, nesses casos, a proteção da personalidade não depende da demonstração de dor mensurável, mas do reconhecimento da gravidade da ofensa e de seus efeitos lesivos à condição humana da vítima.
O papel das plataformas no centro do debate
Há algum tempo, a responsabilidade das plataformas digitais e das empresas que desenvolvem ferramentas de IA generativa passou a ocupar o centro das discussões jurídicas.
Em junho de 2025, o Supremo Tribunal Federal declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet, firmando o entendimento de que há presunção de responsabilidade dos provedores em casos de conteúdos ilícitos quando se tratar de: anúncios ou impulsionamentos pagos; ou redes artificiais de distribuição, como chatbots ou robôs.
Quando a própria inteligência artificial da empresa gera a imagem falsa, cresce o entendimento de que há falha na prestação do serviço, com aplicação direta do Código de Defesa do Consumidor.
Sob a ótica do CDC, permitir comandos que resultem na sexualização não consentida de pessoas reais pode ser caracterizado como defeito de segurança do serviço, também chamado por especialistas de defeito de design.
Um problema estrutural
Responsabilizar apenas o usuário que executa o comando ilícito é insuficiente. O debate jurídico também deve alcançar decisões empresariais que colocam no mercado sistemas sem filtros técnicos adequados.
A ausência de salvaguardas não é apenas falha acidental, mas possível escolha comercial, muitas vezes associada à redução de custos e ao aumento de engajamento.
Enquanto isso, mulheres seguem arcando com consequências sociais, emocionais e profissionais de imagens que nunca produziram, mas que passam a circular como se fossem reais.
Um direito em construção
Embora o Brasil ainda não possua um marco legal específico para a inteligência artificial, o ordenamento jurídico atual já oferece instrumentos para a responsabilização penal de quem cria e divulga imagens falsas, bem como para a responsabilização civil das empresas envolvidas.
A questão central, portanto, não é a inexistência de normas jurídicas, mas a velocidade da resposta estatal diante da rápida expansão das tecnologias generativas e do impacto real que elas produzem na vida de pessoas transformadas, à força, em vítimas de uma violência que começa no ambiente digital, mas não termina ali.
