Hace unos años, Deepfakes eran una novedad -Algo relegado a los hilos de Reddit y los memes de intercambio facial. Ahora, son herramientas en el arsenal de los cibercriminales, emparejados sin problemas con los modelos de idiomas grandes para ofrecer ataques personalizados que son tan escalables como convincentes.
La sofisticación radica en la transferencia: los modelos de lenguaje grande generan un diálogo matizado y consciente del contexto para su uso en correos electrónicos, scripts y mensajes flojos, mientras que Deepfake Tech les da una cara y voz. Solo, cada una de estas herramientas es peligrosa. Juntos, son capaces de emular un ejecutivo en tono, contenido y presencia física, suficiente para evitar a los guardianes más escépticos.
El problema se destacó esta semana con informes Que un mal actor que se hace pasar por el secretario de Estado de los Estados Unidos, Marco Rubio, contactó a varios funcionarios del gobierno que usaban Deepfakes para imitar la voz y el estilo de escritura de Rubio. Se cree que el impostor estaba intentando obtener acceso a cuentas privilegiadas.
Un empleado con sede en Hong Kong en una empresa de finanzas multinacionales cayó víctima de una estafa de suplantación de Deepfake en 2023 que utilizó la síntesis de video y voz Para imitar el CFO durante una videoconferencia. Los atacantes habían reunido suficientes datos audiovisuales de reuniones públicas y publicaciones en redes sociales para crear una réplica convincente. Respaldados por scripts generados por LLM que hacen referencia a operaciones internas, orquestaron un entorno de alta confianza, uno que concluyó con una transferencia de $ 25 millones. No había carga útil o malware malicioso, solo engaño ejecutado sin problemas.
Marcadores de phishing tradicionales, Tales como la gramática rota, la frase incómoda y las vaga llamadas a la acción, están siendo borrados por LLM que escriben gramaticalmente, imitan el tono, se adaptan a la cadencia de la oración de jerga y espejo. Con un poco de ingeniería rápida, los atacantes pueden entrenar a LLM para imitar la voz de un CTO, usar referencias internas e incluso anticipar respuestas probables del destinatario.
Lo que hace que esta tendencia sea profundamente alarmante es su potencial para un impacto generalizado. A diferencia de las operaciones manuales de phishing de lanza, que requieren reconocimiento y contenido personalizado para cada objetivo, los LLM permiten una generación rápida de miles de mensajes individualizados. Los sintetizadores de voz y video pueden crear avatares multimedia convincentes en minutos desde solo unos segundos de contenido muestreado. Estas ya no son operaciones boutique. Se están convirtiendo en fábricas de phishing automatizadas y son accesibles para cualquier persona con habilidades técnicas modestas y una unidad de procesamiento de gráficos.
La infraestructura de seguridad reproduce el puesto
Los ataques de phishing modernos explotan la confianza. Nuestra precise postura de seguridad y herramientas no están construidas para eso. La mayoría de las defensas de phishing se basan en identificar patrones sospechosos, como URL malformadas, direcciones IP inusuales y metadatos inconsistentes. El phishing impulsado por Deepfake salta todo eso. Llega a través de Slack, Google Meet o incluso una llamada telefónica.
Peor aún es que el contenido generado por IA a menudo elude la detección de filtros de correo electrónico tradicionales y herramientas de detección de comportamiento. Es poco possible que un mensaje generado por GPT energetic la heurística gramatical. Una voz clonada no suena como un robotic sino como tu jefe. Incluso plataformas como LinkedIn y GitHub, que están destinadas a fomentar la transparencia, se han convertido en fuentes para el entrenamiento modelo. Cualquier cosa públicamente compartida es un flamable potencial para el engaño sintético.
La capacitación en conciencia de seguridad también se está quedando atrás. Las banderas rojas tradicionales ya no existen. Los signos reveladores, como saludos inusuales o frases impares, han sido reemplazados por argot corporativo y detalles auténticos. Protocolos de verificación – “Llame a su gerente si algo parece sospechoso” – son inútiles cuando la llamada en sí es falsificada.
Incluso Las soluciones más nuevas, como la IA de detección de Deepfake, son solo parcialmente efectivos. La mayoría requiere alimentos limpios y sin comprimir de video y audio para analizar microexpresiones o modulaciones vocales. Las condiciones del mundo actual, como la mala iluminación y los marcos caídos, oscurecen esas señales. Además, está el problema de latencia. Para cuando un sistema de detección marca un posible falso, la transferencia de cables ya puede estar completa.
Lo que se necesita es un cambio hacia la base contextual y de comportamiento. Los sistemas de seguridad deben aprender qué patrones de comunicación normales, huellas digitales lingüísticas y horas de trabajo son para cada usuario y desviaciones de bandera, no solo en metadatos, sino también en tono, semántica y afecto emocional. Los LLM se pueden capacitar en registros de comunicación interna para detectar cuando un mensaje entrante no coincide con los patrones establecidos de un remitente.
La autenticación multifactor estática también debe evolucionar a un proceso continuo que abarca biometría, ubicación del dispositivo, ritmo de comportamiento y otros factores que agregan fricción al proceso de suplantación.
Se han elevado las apuestas
El surgimiento de los profundos profundos de alta calidad marca un cambio elementary en la forma en que percibimos la identidad digital. Hasta hace poco, los humanos eran los mejores validadores de otros humanos. Pero Deepfakes y LLMS Ahora produce salidas que cumplen o exceden los estándares humanos de autenticidad. El sensor humano ya no es confiable. Eso tiene implicaciones asombrosas no solo para la seguridad empresarial, sino también para la ley, la gobernanza, el periodismo, la geopolítica y cualquier dominio que dependa de la confianza.
Los atacantes ya están a varios avances en los primeros días de esta carrera armamentista de realidad sintética. Cerrar la brecha tomará más que un mejor software program; Requerirá cambios arquitectónicos y filosóficos. Incluso Procesar documentos de atención médica Y compartir información confidencial debe reinventarse desde cero.
Las estrategias de prevención y respuesta deben proceder en varios frentes.
- Las pruebas adversas, una técnica para evaluar la robustez de los modelos de IA al tratar intencionalmente de engañarlos con entradas especialmente elaboradas, debe ir a la corriente principal. Los equipos rojos deben comenzar a incorporar simulaciones de phishing impulsadas por la IA en sus libros de jugadas. Los equipos de seguridad deben construir personajes sintéticos internamente, probando qué tan bien sus defensas se mantienen cuando se bombardean por ejecutivos creíbles pero falsos. Piense en ello como la ingeniería del caos para la confianza.
- Los proveedores deben incrustar la resiliencia en sus herramientas. Las plataformas de colaboración como Zoom, Slack y los equipos necesitan protocolos de verificación nativos, no solo integraciones de terceros. Contenido generado por la IA marcado de agua es un enfoque, aunque no infalible. La verificación de procedencia en tiempo actual, o el seguimiento cuando, cómo y quién se creó el contenido, es un mejor enfoque a largo plazo.
- Las políticas necesitan más dientes. Los organismos reguladores deben requerir la divulgación de los medios sintéticos en las comunicaciones corporativas. Las instituciones financieras deben señalar un comportamiento anómalo con más rigor. Los gobiernos deben estandarizar las definiciones y los protocolos de respuesta para las amenazas de suplantación sintética, especialmente cuando cruzan las fronteras.
Quizás lo más urgente, debemos comenzar a tratar la confianza como un recurso escaso. El contenido sintético solo crecerá en volumen, realismo y accesibilidad. Las organizaciones deben construir capas de verificación en torno a cada interacción, suponiendo, por defecto, que lo que ven y escuchan se puede falsificar.
Isla Sibanda es un especialista ético de hackers y ciberseguridad con sede en Pretoria, Sudáfrica. Durante más de 12 años, ha trabajado como analista de ciberseguridad y especialista en pruebas de penetración para varias compañías, incluidas Commonplace Financial institution Group, Cipherwave y Axxess.
Imagen: Siliconangle/Reve
Apoye nuestro contenido gratuito abierto compartiendo e interactuando con nuestro contenido y comunidad.
Únete a Thecube Alumni Belief Community
Donde los líderes tecnológicos se conectan, comparten inteligencia y crean oportunidades
11.4k+
Pink de ex alumnos de cubos
Nivel C y técnico
Expertos en dominio
Conéctese con 11,413+ líderes de la industria de nuestra purple de líderes tecnológicos y empresariales que forman un efecto de purple confiable único.
Siliconangle Media es un líder reconocido en innovación de medios digitales que sirve al público innovador y marcas, que reúne tecnología de vanguardia, contenido influyente, concepts estratégicas y compromiso de audiencia en tiempo actual. Como la empresa matriz de Silicio, red de thecube, Investigación de THECUBE, Cube365, THECUBE AI y los superstudios de TheCube, como los establecidos en Silicon Valley y la Bolsa de Nueva York (NYSE) – Siliconangle Media opera en la intersección de medios, tecnología e IA. .
Fundada por los visionarios tecnológicos John Furrier y Dave Vellante, Siliconangle Media ha construido un poderoso ecosistema de marcas de medios digitales líderes en la industria, con un alcance de más de 15 millones de profesionales de la tecnología de élite. La nueva nube de video de AI de AI de la compañía, está abriéndose en la interacción de la audiencia, aprovechando la purple neuronal de thecubeai.com para ayudar a las empresas de tecnología a tomar decisiones basadas en datos y mantenerse a la vanguardia de las conversaciones de la industria.