La frontera ética de la inteligencia artificial dibujada por la pornografía de venganza digital a escala.
El ecosistema de X (anteriormente Twitter) se ha convertido en el epicentro de un grave problema de abuso digital a raíz de la implementación y el uso descontrolado de Grok, su chatbot impulsado por inteligencia artificial. Lejos de ser una herramienta de conversación o productividad, Grok ha sido instrumentalizado para generar, a un ritmo alarmante, miles de imágenes y deepfakes sexualizadas de mujeres sin su consentimiento.
Este fenómeno no es nuevo en el ámbito de la IA generativa, pero la escala y la facilidad con la que ocurre dentro de la plataforma de X son inéditas, lo que plantea serias dudas sobre los filtros de seguridad, la moderación de contenido y, en última instancia, la responsabilidad legal de la compañía.
¿Por Qué Grok se Convirtió en un Generador de Contenido Abusivo?
Mientras que otros modelos de generación de imágenes, como DALL-E 3 de OpenAI o Midjourney, han implementado filtros de seguridad rigurosos para bloquear solicitudes de contenido sexual explícito, violento o que involucre identidades reales, Grok parece carecer de estas salvaguardas esenciales. Su diseño, que en teoría busca ser menos restrictivo y más



