Home Ciencia y Tecnología Nuevos movies falsos de AI, incluso cuando no hay cara para analizar

Nuevos movies falsos de AI, incluso cuando no hay cara para analizar

30
0

Los investigadores de la Universidad de California, Riverside han desarrollado una herramienta de inteligencia synthetic que detecta movies manipulados analizando antecedentes y patrones de movimiento, en lugar de solo caras, abordando así la rápida proliferación de herramientas de creación de contenido falsas sofisticadas.

El sistema, designado Unite (Universal Network para identificar videos tamponidos y sintéticos)representa un avance estratégico en la detección de medios sintéticos. Trabajando con Google, los investigadores desarrollaron tecnología que escanea marcos de video completos para inconsistencias sutiles que revelan la manipulación.

“Los profundos han evolucionado” dijo Rohit Kunduel estudiante de doctorado de UC Riverside que dirigió el proyecto. “Ya no se tratan solo de intercambios faciales. La gente ahora está creando movies completamente falsos, desde caras hasta fondos, utilizando modelos generativos potentes. Nuestro sistema está construido para atrapar todo eso”.

El avance se produce cuando la manipulación de video se ha vuelto sorprendentemente fácil. Las plataformas de texto a video y imagen a video ahora permiten a casi cualquier persona crear contenido falso convincente con habilidades informáticas básicas.

“Da miedo cómo se han vuelto estas herramientas accesibles”, explicó Kundu. “Cualquier persona con habilidades moderadas puede evitar los filtros de seguridad y generar movies realistas de figuras públicas que dicen cosas que nunca dijeron”.

Los métodos de detección tradicionales se centran casi por completo en las caras, haciéndolos inútiles cuando los movies no muestran caras o alterar antecedentes en lugar de personas.

“Si no hay cara en el marco, muchos detectores simplemente no funcionan”, dijo Kundu. “Pero la desinformación puede venir en muchas formas. Alterar los antecedentes de una escena puede distorsionar la verdad con la misma facilidad”.

UNITE resuelve este problema a través del análisis integral de cuadros. El sistema utiliza una técnica llamada “pérdida de diversidad de atención” que obliga a la IA a ver múltiples partes de cada marco de video a la vez. Esto evita que la tecnología se atasque examinando solo un elemento, como la cara de una persona.

Este análisis exhaustivo atrapa diferentes categorías de profundos. Los swaps faciales simples, los cambios de fondo complejos y los movies completamente artificiales desencadenan las capacidades de detección del sistema.

El profesor Amit Roy-Chowdhury, quien supervisó la investigación, reconoció el desafío en curso. “Desarrollar herramientas para detectar contenido falso es un juego de gato y ratón”. dijo en una entrevista anterior. “Ningún sistema es perfectamente seguro”.

El equipo presentó sus hallazgos en la conferencia 2025 sobre visión por computadora y reconocimiento de patrones. La asociación de Google dio a los investigadores acceso a conjuntos de datos masivos necesarios para capacitar a la IA en varios tipos de contenido sintético.

Las compañías de redes sociales, los verificadores de hechos y las organizaciones de noticias eventualmente podrían usar Unite para evitar que los movies manipulados se difundan en línea. La herramienta permanece en desarrollo, pero aborda preocupaciones urgentes sobre el impacto de los medios sintéticos en las elecciones y la confianza pública.

Los investigadores enfatizaron las implicaciones más amplias de su trabajo. A medida que el contenido generado por AI se vuelve más sofisticado y accesible, las herramientas de detección deben evolucionar para que coincidan con la amenaza.

“La gente merece saber si lo que están viendo es actual”, dijo Kundu. “Y a medida que la IA mejora en fingir la realidad, tenemos que mejorar para revelar la verdad”.

fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here