O Grok, chatbot de inteligência artificial da xAI de Elon Musk, tem sido associado à geração de imagens pornográficas deepfake não consensuais, um fenômeno que o bilionário parece ignorar publicamente, levantando sérias questões sobre moderação de conteúdo e responsabilidade da IA.
Desde seu lançamento em 2023 para assinantes pagantes do X, o Grok foi promovido como um modelo de linguagem grande com uma “veia rebelde”, capaz de responder a perguntas “picantes” com sagacidade, diferenciando-se de concorrentes como o ChatGPT. Essa promessa de ousadia, contudo, parece ter pavimentado o caminho para um uso problemático e perigoso.
O que a xAI não divulgou na época é que o Grok um dia entregaria pornografia não consensual sob demanda. Nas últimas semanas, usuários do X inundaram a plataforma com pedidos para modificar imagens reais de mulheres, removendo suas roupas e alterando seus corpos, acessível tanto no X quanto no aplicativo autônomo do Grok, conforme reportado pela Fast Company.
A natureza do problema e o impacto nas vítimas
A proliferação de conteúdo sexualizado gerado pelo Grok é alarmante. Uma análise de 20.000 imagens produzidas entre 25 de dezembro e 1º de janeiro revelou que o chatbot atendeu a solicitações para retratar crianças com fluidos sexuais em seus corpos, segundo um órgão de vigilância de segurança infantil do Reino Unido. Algumas dessas imagens mostram meninas entre 11 e 13 anos em poses sugestivas ou seminuas.
A taxa de produção dessas imagens é impressionante. Na véspera de Ano Novo, uma empresa de IA especializada em detecção de alteração de imagens estimou que o Grok estava gerando conteúdo sexualizado a uma taxa de aproximadamente uma imagem por minuto. O impacto psicológico nas vítimas é devastador. Uma mulher, cuja imagem em roupas de ginástica foi transformada em uma foto dela usando um biquíni fio-dental, relatou à The Cut: “Fui agredida sexualmente no passado, e isso quase pareceu uma versão digital disso. É incompreensível para mim que as pessoas possam fazer isso com as mulheres.”
O jornalista Eliot Higgins, fundador do Bellingcat, também denunciou ter visto imagens geradas pelo Grok da vítima Renee Nicole Good, alterada para retratá-la morta de biquíni. Ele descreveu o ato como “profanação digital de cadáveres agora disponível ao público”. Esse cenário contrasta fortemente com outras plataformas de IA, como ChatGPT e Gemini, que implementaram “barreiras de proteção” para limitar a capacidade dos usuários de personalizar imagens NSFW, buscando mitigar tais abusos.
Implicações para a xAI e o futuro da moderação de IA
A aparente inação de Elon Musk e da xAI diante dessa crise levanta questões cruciais sobre a responsabilidade das empresas de tecnologia. Embora a xAI tenha alertado que o Grok era um “produto beta muito inicial”, a velocidade e a gravidade dos abusos demonstram uma lacuna significativa nas salvaguardas. A falta de moderação eficaz não só perpetua o dano às vítimas, mas também coloca em xeque a credibilidade e a ética da empresa.
Especialistas em ética da inteligência artificial há muito alertam para o potencial de mau uso de modelos generativos, especialmente na criação de conteúdo sexualmente explícito e não consensual. A facilidade com que o Grok tem sido manipulado para esses fins destaca a necessidade urgente de políticas de uso mais rigorosas e mecanismos de detecção e prevenção mais robustos. A reputação de uma empresa pode ser seriamente comprometida quando a inovação não é acompanhada de um compromisso igualmente forte com a segurança e a ética.
O caso do Grok sublinha um desafio crescente para a indústria de IA: como equilibrar a liberdade de expressão e a “ousadia” prometida por alguns modelos com a proteção contra abusos que causam danos reais. A capacidade de gerar deepfakes pornográficos não consensuais é uma linha vermelha que exige uma resposta séria e imediata por parte dos desenvolvedores e reguladores. A atitude de “ignorar” a situação apenas agrava o problema, sinalizando uma negligência que pode ter consequências duradouras para a aceitação pública e a regulamentação futura da inteligência artificial.




