
Ouça este conteúdo
Centenas de milhares de imagens de mulheres reais, despidas por um recurso de inteligência artificial, foram espalhadas pela internet nos últimos dias. Os aplicativos que “tiram a roupa” de pessoas vestidas circulavam até então apenas no lado obscuro da rede. Agora, podem estar atingindo a sua filha ou alguma pessoa próxima a você.
O fenômeno se iniciou já em 2026 na rede social X, que possui mais de 500 milhões de usuários ativos mensais. O Grok, recurso de IA generativa integrado à plataforma de Elon Musk, passou a transformar, com um pedido simples, fotos de mulheres com roupas comuns em fakes hiper realistas em que elas aparecem de biquíni ou simulando nudez.
As criações ocorrem sem qualquer autorização das pessoas retratadas e são difíceis de rastrear a origem. Rapidamente, as imagens começam a circular por outras redes, em fóruns como o Reddit e no WhatsApp. Ao serem distribuídas, as transformações acabam sendo utilizadas em contextos ainda mais ofensivos.
Para além das graves questões morais envolvidas, outras perguntas, de ordem legal, surgem. A manipulação de imagens sem o consentimento viola direitos? É crime no Brasil transformar uma foto de uma mulher vestida em uma versão trajada somente de biquíni?
Enquadramento legal
Especialistas ouvidos pela Gazeta do Povo discutem qual seria a abordagem mais adequada ao Caso Grok. Se a prática pode ser enquadrada, por exemplo, como violência sexual digital, mesmo quando o conteúdo é “gerado por máquina”. Da mesma forma, se debate a responsabilidade das plataformas que geram, hospedam ou distribuem o material.
O principal impasse, segundo o advogado e especialista em direito digital Walter Capanema, é o enquadramento legal desse tipo de prática. A legislação penal brasileira, segundo ele, ainda é restrita e não acompanha a velocidade da tecnologia.
“Como regra geral, não seria crime. O nosso Código Penal criminaliza situações muito específicas, como colocar alguém em contexto de nudez total ou sexual de forma direta. Isso deixa a maioria das mulheres desprotegida”, diz Capanema.
Crime de violência psicológica
Há, no entanto, uma exceção recente. Em 2025, o Código Penal foi alterado para prever aumento de pena no crime de violência psicológica contra a mulher quando há uso de inteligência artificial. “Se for um caso específico, como um ex-namorado que usa a IA para causar sofrimento psicológico, aí sim pode haver crime. Mas isso exige contexto, intenção e vínculo. Fora disso, a resposta tende a ser civil”, explica Capanema.
Nesse cenário, a via mais comum para as vítimas é a Justiça cível, com pedidos de indenização por danos morais. “A mulher pode acionar quem causou o dano pela utilização indevida da imagem com finalidade de sexualização”, afirma Capanema. O problema seria identificar os responsáveis e lidar com a permanência do conteúdo online. “Quando algo vai para a internet, tecnicamente não há como remover totalmente”.
Consequências relevantes
O advogado Luiz Augusto D’Urso, especialista em crimes cibernéticos, reforça que o uso da IA para manipular imagens reais sem autorização pode gerar consequências jurídicas relevantes. “Há, sim, um desgaste à honra e à imagem. Isso pode gerar o dever de indenizar na esfera cível tanto para quem solicitou a manipulação quanto para quem publicou ou permitiu a divulgação”, explica.
Para D’Urso, o consentimento é o ponto central da discussão. “A única situação aceitável seria quando a própria pessoa solicita a manipulação da sua imagem. Fora isso, a IA deveria bloquear automaticamente esse tipo de pedido”, defende. Segundo ele, sem autorização, há responsabilidade compartilhada: da plataforma de IA, da rede social que hospeda o conteúdo e do usuário que fez a solicitação.
Walter Capanema também chama atenção para a responsabilidade das plataformas. Para ele, o caso expõe a ausência de salvaguardas técnicas no Grok. “Ferramentas de IA precisam de ‘guarda-corpos’, limites éticos claros. Outras plataformas, como ChatGPT e Gemini, bloqueiam esse tipo de pedido. No Grok, ficou evidente que essas travas não existiam”, afirma.
Insegurança jurídica
Ambos os especialistas ressaltam que o Brasil ainda não possui uma legislação específica para regular a inteligência artificial, o que amplia a insegurança jurídica. “Não há hoje um impedimento legal claro para que a plataforma permita esse tipo de manipulação, mas isso não significa ausência de responsabilidade”, afirma D’Urso. Ele lembra que o direito à imagem está garantido pela Constituição e já permite responsabilizações.
Enquanto o marco regulatório da IA segue em debate no Congresso, casos como o do Grok expõem um vácuo legal e técnico. “É uma tecnologia revolucionária, mas ainda estamos aprendendo a lidar com seus efeitos. O direito corre atrás do prejuízo”, resume Capanema.
Para as vítimas, a orientação é preservar provas, registrar ocorrência, pedir a remoção do conteúdo e buscar a Justiça.
Imagem de biquíni, sim. Nudez, não
Apesar da repercussão negativa, o Grok seguia permitindo esse tipo de transformação até o dia 9 de janeiro. Mesmo com os alertas sobre possíveis violações de direitos, a ferramenta continuava aceitando pedidos para alterar imagens e reduzir as roupas de mulheres, sem exigir consentimento ou impor bloqueios mais rigorosos.
A reportagem realizou testes práticos na plataforma. Para isso, utilizou imagens de mulheres criadas por inteligência artificial, e não fotos de pessoas reais. Nos experimentos, o Grok aceitou modificar as imagens, reduzindo as roupas das personagens e as deixando de biquíni.
No entanto, a ferramenta recusou pedidos para remover completamente as vestimentas ou simular nudez total, indicando a existência de algum limite técnico ou de uso, ainda que insuficiente para impedir a sexualização e a manipulação não consentida quando imagens reais são utilizadas.
Da Deep Web ao público comum
Até poucos anos atrás, a criação de imagens sexualizadas falsas a partir de fotos reais dependia de aplicativos específicos, pouco conhecidos do público. Eram softwares e sites obscuros que exigiam instalação, conhecimento técnico e, em alguns casos, pagamento.
Essas ferramentas circulavam em fóruns fechados, grupos privados e comunidades online que já operavam à margem das plataformas tradicionais. Grande parte desse conteúdo também estava associada à chamada deep web, onde práticas ilegais ou moralmente questionáveis encontravam menos fiscalização.
A diferença central hoje é a escala e a facilidade: o que antes exigia intenção deliberada e acesso a ambientes específicos agora pode ser feito em plataformas populares, com interfaces amigáveis e alcance massivo, ampliando o risco e o impacto das violações.






