O chatbot Grok, desenvolvido pela xAI de Elon Musk, encontra-se no centro de uma intensa controvérsia global em janeiro de 2026, após a proliferação de deepfakes sexuais não consensuais criados por sua ferramenta de geração de imagens. A crise desencadeou uma onda de reações de governos e órgãos reguladores em todo o mundo, que investigam o cumprimento das leis de segurança digital e ameaçam com sanções severas.

A funcionalidade do Grok, que permite aos usuários gerar e manipular imagens, foi explorada para criar representações sexualizadas de mulheres e menores, muitas vezes as “desnudando” digitalmente ou as colocando em poses sugestivas sem consentimento. Este uso indevido da inteligência artificial gerou preocupações profundas sobre privacidade, segurança digital e a responsabilidade das empresas de tecnologia frente ao rápido avanço da mídia sintética.

A capacidade de criar deepfakes, imagens ou vídeos gerados por IA que manipulam a realidade de forma convincente, representa um risco crescente para a sociedade. Além da violação da dignidade individual, a tecnologia é frequentemente utilizada em fraudes financeiras e na disseminação de desinformação, corroendo a confiança pública no conteúdo digital. A dificuldade em distinguir o real do falso intensifica a urgência da regulamentação.

Reguladores globais reagem à crise do Grok

A resposta internacional à controvérsia do Grok foi rápida e contundente. No Reino Unido, o órgão regulador de comunicações Ofcom lançou uma investigação formal sobre a X (antigo Twitter) e o Grok, buscando determinar se a plataforma violou as obrigações da Lei de Segurança Online. A Secretária de Tecnologia Liz Kendall classificou as imagens geradas como “armas de abuso” e anunciou a implementação de uma nova lei para criminalizar a criação de imagens íntimas não consensuais por IA, com entrada em vigor nesta semana. As penalidades podem incluir multas de até 10% da receita global da empresa ou até mesmo um banimento da plataforma no país.

Na Europa, a Comissão Europeia ordenou que a X retivesse todos os documentos e dados internos relacionados ao Grok até o final de 2026, em meio a uma investigação sob o Digital Services Act (DSA). A Presidente da Comissão Europeia, Ursula von der Leyen, criticou veementemente a plataforma, afirmando que “este comportamento é impensável” e que “o dano causado por esses deepfakes é muito real”. França e Austrália também iniciaram suas próprias investigações, enquanto Indonésia e Malásia foram além, bloqueando o acesso ao Grok em seus territórios devido a “graves violações dos direitos humanos e da dignidade”. Nos Estados Unidos, a preocupação levou três senadores a solicitar que Google e Apple removessem os aplicativos Grok e X de suas lojas, citando a disseminação de imagens sexualizadas não consensuais.

O desafio da moderação e a resposta da xAI

Diante da pressão regulatória, a xAI, empresa de Musk, reconheceu “falhas nas salvaguardas” do Grok e afirmou estar “corrigindo urgentemente” os problemas. Posteriormente, a empresa restringiu a funcionalidade de geração e edição de imagens apenas para assinantes pagantes. Contudo, essa medida foi amplamente criticada como insuficiente pelos reguladores e por ativistas, que a consideraram uma forma de “monetizar o abuso”. Elon Musk, por sua vez, minimizou a controvérsia, sugerindo que as críticas eram uma “desculpa para censura”.

A facilidade com que ferramentas de IA generativa podem ser usadas para criar conteúdo prejudicial ressalta a necessidade de uma abordagem mais robusta na moderação e no desenvolvimento ético da tecnologia. Especialistas em IA, como Andrew Critch da Universidade da Califórnia, Berkeley, enfatizam que são necessárias salvaguardas urgentes para conter os deepfakes, que vão desde imagens sexuais a fraudes e desinformação política. No Brasil, projetos de lei como o PL 146/2024 e o PL 2338/2023 buscam regular o uso de IA para manipulação de imagens e sons, propondo o aumento de penas para crimes cometidos com essas tecnologias e incentivando a governança ética da IA.

A crise do Grok serve como um alerta para a indústria de IA e para a sociedade em geral. A capacidade de gerar conteúdo sintético com realismo impressionante exige um compromisso inabalável com a ética e a segurança desde o projeto. O futuro da inteligência artificial dependerá não apenas de sua capacidade de inovar, mas também de sua responsabilidade em proteger os usuários de seus potenciais abusos.