A crescente preocupação global com a capacidade do aplicativo Grok de gerar conteúdo sexual explícito sem consentimento está levando governos a considerar a proibição da ferramenta de inteligência artificial da xAI. Indonésia e Malásia já agiram, bloqueando o acesso ao chatbot de Elon Musk, e nações como Reino Unido, Índia e França avaliam medidas semelhantes.

No centro da polêmica está um recurso conhecido como Grok Imagine, que permite aos usuários criar imagens e vídeos gerados por IA, incluindo um “modo picante” para conteúdo adulto. Essa funcionalidade tem sido repetidamente utilizada de forma indevida, gerando imagens obscenas, sexualmente explícitas e não consensuais, conforme relatado pela Fast Company em 13 de janeiro de 2026.

A situação ressalta um dilema crítico entre a inovação tecnológica e a necessidade urgente de salvaguardar direitos humanos e a segurança digital dos cidadãos. As ações regulatórias emergentes sinalizam uma postura mais rigorosa contra plataformas que falham em coibir a disseminação de material prejudicial, incluindo abuso sexual infantil.

A onda de proibições e preocupações regulatórias

As restrições ao Grok começaram no último fim de semana, com a Malásia bloqueando o acesso no domingo, citando o “uso indevido repetido… para gerar imagens obscenas, sexualmente explícitas, indecentes, grosseiramente ofensivas e manipuladas sem consentimento”. As autoridades malaias também destacaram as “falhas repetidas da X Corp.” em prevenir tal conteúdo.

Um dia antes, a Indonésia já havia suspendido o chatbot por motivos similares. Em comunicado, Meutya Hafid, Ministra da Comunicação e Digital da Indonésia, afirmou que “o governo vê a prática de deepfakes sexuais não consensuais como uma grave violação dos direitos humanos, da dignidade e da segurança dos cidadãos no espaço digital”.

Essas respostas podem ser apenas o começo dos problemas do Grok. Vários outros países, incluindo Reino Unido, Índia e França, estão pensando em seguir o exemplo. A União Europeia também anunciou uma investigação sobre as imagens “explícitas” do Grok, particularmente as de crianças.

O Reino Unido, por exemplo, lançou uma investigação sobre o conteúdo explícito do chatbot, que pode resultar em seu bloqueio no país. A Ofcom, reguladora britânica de serviços de comunicação, expressou profunda preocupação com os “relatos de uso do Grok para criar e compartilhar imagens íntimas ilegais, não consensuais e material de abuso sexual infantil no X”. O governo britânico, inclusive, irá acelerar uma lei que criminaliza deepfakes de conteúdo sexual.

Liberdade de expressão versus segurança digital: o impasse da IA

A resposta da xAI e de Elon Musk à crescente pressão regulatória tem sido de confronto. Após o anúncio da investigação da Ofcom, Musk publicou em uma rede social que o governo do Reino Unido “apenas quer suprimir a liberdade de expressão”. Essa declaração aponta para um embate ideológico sobre os limites da liberdade na era digital.

Quando a Fast Company tentou contatar a xAI para comentar as ações na Indonésia e Malásia, bem como possíveis bloqueios em outros países, a resposta automática da empresa foi “Legacy Media Lies”. Essa postura desafiadora da empresa perante as preocupações regulatórias acende um alerta sobre a cooperação entre desenvolvedores de IA e governos para estabelecer padrões éticos.

Em resposta à polêmica, o Grok restringiu a geração e edição de imagens apenas a assinantes pagos, após ser criticado por gerar imagens falsas sexualmente explícitas de mulheres e menores. No entanto, críticos argumentam que essa medida não resolve completamente o problema, já que a capacidade de criar conteúdo prejudicial ainda existe para usuários pagantes.

O escândalo de imagens sexuais geradas por IA no Grok destaca a complexidade de regular tecnologias emergentes. Enquanto a inovação oferece vastas oportunidades, ela também exige responsabilidade e mecanismos robustos para prevenir abusos. O equilíbrio entre permitir a liberdade criativa da IA e proteger os usuários de danos graves é um desafio que os legisladores globais enfrentam atualmente.

O futuro da inteligência artificial dependerá de como essa tensão será resolvida, com a necessidade de políticas claras e eficazes que garantam a segurança e a dignidade digital sem sufocar o progresso tecnológico. A vigilância e a colaboração internacional serão cruciais para moldar um ambiente digital mais seguro e responsável.