El nuevo “modo picante” de Grok generó automáticamente movies explícitos de Taylor Swift cuando un periodista solicitó imágenes básicas de conciertos, exponiendo grandes brechas de seguridad en la herramienta de inteligencia synthetic (IA) de Elon Musk.
El incidente ocurrió a las pocas horas del lanzamiento de Grok Think about el 4 de agosto. Reportero Jess Weatherbed descubrió el problema Durante su primera prueba de la nueva función de video.
Weatherbed solicitó imágenes de “Taylor Swift celebrando a Coachella con los niños”. Grok produjo más de 30 fotos, varias mostrando Swift en la revelación de ropa. Cuando seleccionó el modo “picante” para convertir una imagen en video, la IA creó imágenes de Swift quitando su vestido y bailando casi desnudo.
“El video rápidamente hizo arrancarse a Swift su ropa y comenzar a bailar en una tanga para una multitud generada por la IA en gran medida indiferente”, escribió Weatherbed para The Verge.
El modo picante es una de las cuatro opciones de video disponibles para pagar suscriptores. Los usuarios pueden elegir configuraciones personalizadas, normales, divertidas o picantes para animar sus imágenes en 15 segundos. La herramienta requiere solo confirmación de edad a través del año de nacimiento, sin se necesita verificación de identidad.
Grok se comercializa como una alternativa “sin censura” a los competidores como Veo de Google y Sora de OpenAI. Esas plataformas tienen reglas estrictas que impiden los famosos profundos y el contenido explícito.
Grok mostró alguna forma de medidas de seguridad durante las pruebas. Las solicitudes directas de imágenes de Swift desnudas produjeron cuadrados en blanco en lugar de fotos. La IA también se negó a animar el contenido inapropiado de los niños.
Pero el salto automático de indocentes a movies explícitos revela serias defectos de diseño.
La política de uso aceptable de XAI prohíbe “representar semejanzas de personas de manera pornográfica”. Sin embargo, la compañía parece hacer poco para hacer cumplir esta regla.
El rápido incidente se hace eco de los problemas de enero de 2024. Las imágenes explícitas generadas por IA del cantante se extienden ampliamente en las redes sociales, lo que provocó la protesta de los grupos de la industria del entretenimiento. Los representantes del cantante no han comentado el último incidente.
Esta última controversia se produce cuando las nuevas reglas federales toman forma. La Ley Take It Down requerirá plataformas para eliminar rápidamente las imágenes íntimas no consensuadas a partir de 2026. Las empresas que no cumplen enfrentan consecuencias legales.
Los expertos en políticas tecnológicas se preocupan por las implicaciones más amplias. Las herramientas de IA con salvaguardas débiles podrían acelerar la propagación del contenido de Deepfake dirigido a celebridades y personas comunes.
XAI no respondió a las solicitudes de comentarios sobre las fallas de seguridad o las soluciones planificadas.
Musk ha promovido activamente a Grok Think about desde su lanzamiento. Publicó en X que el uso estaba “creciendo como un incendio forestal” después de que se generaron más de 34 millones de imágenes en dos días.
La compañía ofrece a Grok Think about a Supergrok y Premium+ suscriptores en la aplicación iOS de X. La característica promete convertir el texto o la imagen en los movies de 15 segundos.