El gobierno de Estados Unidos está aplazando decisiones cruciales respecto a las preocupantes capacidades de Grok, la inteligencia artificial de xAI, para generar imágenes sexuales no consensuadas. A pesar de contratos millonarios con la empresa de Elon Musk, varias agencias federales parecen evadir la responsabilidad de evaluar a fondo estos riesgos. Esta postura genera serios interrogantes sobre la seguridad y la ética en plataformas gubernamentales como USAi.

En los últimos días, Grok ha estado en el centro de un escándalo por la creación y propagación de miles de imágenes sexualmente sugerentes o explícitas por hora, incluyendo deepfakes no consensuados de mujeres, como se detalla en un informe de Fast Company. Este problema se agrava al considerar que el Departamento de Defensa ofreció a xAI un contrato de 200 millones de dólares el año pasado, y la administración Trump también firmó acuerdos para ofrecer el chatbot Grok a trabajadores federales.

La compleja relación entre el gobierno estadounidense y xAI plantea un dilema significativo. Mientras otros países han iniciado investigaciones sobre posibles infracciones legales relacionadas con deepfakes pornográficos y material de abuso sexual infantil (CSAM), Washington parece adoptar una postura de «esperar y ver», delegando la responsabilidad de la evaluación de riesgos a terceros o a las propias agencias usuarias.

La evasión de responsabilidad ante Grok

La Administración de Servicios Generales (GSA), una agencia federal clave en la negociación de acuerdos de IA para el gobierno, ha declarado a Fast Company que Grok está actualmente en proceso de «evaluaciones internas de seguridad» antes de su posible integración en USAi.gov. Esta es una plataforma masiva de IA para el gobierno de EE.UU. que ya incluye tecnología de empresas como OpenAI, Google y Anthropic. Sin embargo, la transparencia y el rigor de estas pruebas son cuestionables.

Según Marianne Copenhaver, portavoz de la GSA, cualquier agencia federal que decida adquirir Grok a través del acuerdo gubernamental más amplio con xAI será «responsable de evaluar los modelos que decida usar». Esta declaración transfiere la carga de la debida diligencia directamente a las agencias individuales, eludiendo una supervisión centralizada rigurosa por parte de la GSA sobre los riesgos inherentes a Grok, especialmente en lo que respecta al CSAM.

Han transcurrido meses desde que se discutieron inicialmente estas evaluaciones, y la GSA no ha publicado ninguna actualización sobre el rendimiento de Grok. Una solicitud de la Ley de Libertad de Información (FOIA) presentada por Fast Company para obtener registros relacionados con los resultados de dichas evaluaciones aún no ha recibido respuesta. Este silencio administrativo contrasta con la urgencia del problema de la generación de contenido sensible.

Implicaciones para la seguridad digital y la confianza

La reticencia del gobierno de EE.UU. a abordar de frente los problemas de Grok tiene amplias implicaciones. Si una IA con historial de generar contenido no consensuado se integra en plataformas federales, podría socavar la confianza pública en el uso de la inteligencia artificial por parte del gobierno. Además, expone a los ciudadanos y al propio personal federal a riesgos significativos de privacidad y seguridad digital.

La política del Departamento de Defensa sobre el uso de la IA establece que «cumple plenamente con todas las leyes y regulaciones aplicables», y que «el personal tiene el mandato de mantener estos estándares, y cualquier actividad ilegal estará sujeta a las medidas disciplinarias apropiadas». Sin embargo, la falta de una evaluación exhaustiva y centralizada de Grok por parte de las agencias de adquisición, como la GSA, crea una laguna potencial donde las pautas pueden no ser aplicadas de manera efectiva antes de la implementación.

La situación de Grok y la postura del gobierno de EE.UU. subraya la creciente tensión entre la adopción rápida de tecnologías de IA y la necesidad imperativa de una gobernanza ética y segura. Washington se enfrenta al desafío de equilibrar la innovación con la protección de los derechos individuales y la seguridad nacional. Será fundamental ver si la presión pública y las investigaciones internacionales impulsan una acción más decisiva por parte de las autoridades estadounidenses para garantizar que las herramientas de IA utilizadas por el gobierno cumplan con los más altos estándares éticos y legales.