Home Ciencia y Tecnología Movies racistas generados por IA realizados con Google Veo 3 se vuelven...

Movies racistas generados por IA realizados con Google Veo 3 se vuelven virales en Tiktok

92
0

Los movies racistas y antisemitas creados con el generador de video VEO 3 de Google han obtenido millones de vistas sobre Tiktok desde mayo, lo que provocó eliminaciones de plataforma y expone fallas críticas en las medidas de seguridad de inteligencia synthetic (IA).

Los movies creados con VEO 3 alcanzaron 14.2 millones de visitas a Tiktok antes de la eliminación. Media Matters publicó estos hallazgos el 1 de julio. El contenido generado por IA mostró a los negros como monos y delincuentes mientras promueven concepts dañinas sobre múltiples grupos raciales.

Media Issues identificó los movies a través de marcas de agua “VEO” y límites de clip de ocho segundos. Estas características coinciden con las especificaciones de la herramienta. Los investigadores encontraron contenido dirigido a estadounidenses negros, pueblos asiáticos, comunidades judías e inmigrantes en Tiktok, Instagram y YouTube.

https://www.youtube.com/watch?v=c16ozpkeg-u

“Es desagradable e inquietante que estos tropos e imágenes raciales estén fácilmente disponibles para ser diseñados y distribuidos en plataformas en línea”, dijo Nicol Turner Lee, director del Centro de Innovación Tecnológica de la Institución Brookings, para conectarse.

Google lanzado Veo 3 en mayo de 2025comercializarlo como un generador de texto a video con protecciones de seguridad incorporadas. El Políticas de la empresa Prohibir explícitamente la creación de contenido que promueve el discurso de odio o el acoso. Esas salvaguardas aparentemente fallaron cuando los usuarios emplearon indicaciones indirectas que evitaron filtros dirigidos por humanos.

Tiktok eliminó las cuentas identificadas después de la publicación del informe. Muchos ya habían sido prohibidos antes de que Media Issues completara su investigación.

“Hacemos cumplir proactivamente reglas sólidas contra el habla y el comportamiento odiosos”, dijo la portavoz de Tiktok, Ariane de Selliers.

Los movies usaron imágenes animales para evitar filtros de contenido mientras promueven concepts racistas. Un clip mostró a la policía disparando a uno “negro” y obtuvo más de 14 millones de visitas. Otro mostró monos en un restaurante con sandía y pollo frito, alcanzando 600,000 vistas.

Los comentarios mostraron que los espectadores entendieron los mensajes racistas. “Bro incluso la IA tiene fatiga negra”, escribió un espectador en un video de avión de mono.

Algunos creadores monetizaron el contenido de odio vendiendo cursos de $ 15 que enseñan a otros cómo generar movies similares usando VEO 3. Los tutoriales caminaron a los estudiantes a través de técnicas de solicitación que eludieron las medidas de seguridad de Google.

La situación se extiende más allá de los movies individuales para revelar problemas sistémicos con el desarrollo de la IA y la gobernanza de las redes sociales. Los sistemas de moderación de contenido luchan para encontrar un discurso de odio generado por IA. Esto es especialmente difícil cuando usa lenguaje codificado y símbolos visuales.

Google no ha respondido a las solicitudes de comentarios sobre las fallas de seguridad VEO 3. La compañía planea agregar el generador de video a los pantalones cortos de YouTube. Esto podría expandir el alcance de contenido related.

El incidente sigue un patrón de herramientas de IA que reproducen los prejuicios sociales a pesar de las protecciones técnicas. Investigaciones anteriores muestran Los sistemas de IA muestran constantemente sesgo racial. Asignan rasgos negativos a los hablantes de inglés afroamericano y continúan estereotipos históricos.

Los desafíos de aplicación de Tiktok reflejan luchas de la industria más amplias con el contenido generado por IA. La plataforma elimina menos del 1% de los movies publicados para violaciones de políticas, según sus propios informes. Los formatos de video cortos hacen que la moderación contextual sea particularmente difícil, mientras que la distribución algorítmica puede amplificar contenido dañino.

La propagación viral muestra cómo las herramientas de IA pueden armarse las viejas técnicas de propaganda. Las imágenes racistas que una vez requerían ciertas habilidades ahora se pueden generar instantáneamente a través de indicaciones de texto, reduciendo las barreras para crear y difundir el discurso de odio.

fuente