Home Ciencia y Tecnología Los investigadores de seguridad acaban de piratear chatgpt usando un solo documento...

Los investigadores de seguridad acaban de piratear chatgpt usando un solo documento ‘envenenado’

21
0





Nuevos hallazgos de un grupo de investigadores en la Conferencia Black Hat Hacker en Las Vegas han revelado que solo se necesita un documento “envenenado” para obtener acceso a datos privados utilizando ChatGPT que se ha conectado con servicios externos. Una de las formas en que OpenAI ha hecho que ChatGPT sea aún más útil para su base de usuarios es permitirle conectarlo a varios servicios externos, como Google Drive, GitHub y más. Pero conectar ChatGPT a estas soluciones de almacenamiento de datos privados podría poner sus datos en riesgo de ser expuestos, según la nueva investigación.

El ataque, que ha sido denominado Agentefue diseñado por los investigadores Michael Bargury y Tamir Ishay Sharbat. Cuando se utiliza, muestra que la inyección indirecta de inmediato es posible a través de un solo documento que se ha incrustado con las instrucciones correctas. Cuando se usa, este tipo de ataque podría dar a los malos actores acceso a secretos de desarrolladores como claves API y más.

Por ejemplo, en este caso, los investigadores incluyeron una carga útil de inyección de inmediato en un documento antes de que se cargara a ChatGPT. Cuando ChatGPT representa una imagen en el documento, una solicitud se envía automáticamente al servidor del atacante utilizando el mensaje invisible. Solo así, los datos han sido robados, y la víctima no es más sabia.

Pirateando la IA indirectamente


https://www.youtube.com/watch?v=jnhpzupeocg

Estos ataques indirectos rápidos son parte de un nuevo estilo de hack que ha aparecido en la escena de seguridad de la IA cada vez más en los últimos meses. De hecho, otra investigación publicada esta semana también muestra que los piratas informáticos pudieron controlar un hogar inteligente pirateando a Gemini utilizando una invitación de calendario infectado. Estos ataques indirectos indirectos son solo una forma en que la IA ha demostrado ser prone a los caprichos de los malos actores.

Y las preocupaciones que rodean este tipo de ataques solo están creciendo, especialmente a medida que personas como el padrino de IA dicen que las compañías tecnológicas están minimizando los riesgos de la IA. Una de las razones por las que este tipo de ataque es tan peligroso es que el usuario no necesita hacer nada más allá de conectar ChatGPT a su cuenta de Google Drive o GitHub. A partir de ahí, si se agrega un documento “envenenado” con instrucciones indirectas incrustadas en él a sus archivos, podría dar a los malos actores acceso a los datos almacenados en su cuenta.

Puedes ver un Video conceptual del ataque En acción para tener una concept de cuán easy es y qué tan rápido funciona. Por supuesto, conectar la IA a sus cuentas externas puede ser extremadamente útil, y esa es una forma en que los desarrolladores hacen uso de varios sistemas de IA, ya que les permite conectar IA con sus bases de datos existentes sin necesidad de trasladar su código a ninguna herramienta adicional. Pero, como señala los investigadores, dar más poder a IA puede abrirlo a un riesgo aún más.



fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here