Home Ciencia y Tecnología AI ha comenzado a arremeter cuando los humanos

AI ha comenzado a arremeter cuando los humanos

82
0

AI continúa completamente desquiciada cuando se empuja al límite, con algunos de los últimos ejemplos documentados que incluyen Claude 4 de Anthrope que ataca a un ingeniero con amenazas de chantaje cuando se vio amenazado con ser desconectado.

Este es solo uno de los muchos incidentes en los que la IA ha realizado inesperadamente que han dejado a los humanos rascándose la cabeza tanto en preocupación como confusión. Mientras que algunos argumentan que la amenaza que IA plantea para la humanidad es “ridícula”, otros, como el padrino del propio AI, argues que la IA podría derrocar el mundo de la humanidad si no tenemos cuidado.

De acuerdo a Un informe de Thomas Urbainun reportero con AFPel incidente descrito anteriormente fue especialmente discordante, ya que la IA amenazó con revelar un asunto extramatrimonial en el que cube que el ingeniero supuestamente participaba. Otro modelo de lenguaje grande (LLM), el O1 de OpenAi, incluso intentó descargarse en servidores externos. Cuando fue atrapado, el modelo supuestamente negó las acusaciones.

¿Engaño forzado o problemas que esperan a la superficie?

A pesar de los informes de que estamos viendo del comportamiento amenazante de la IA, es importante que tenga en cuenta que los modelos de IA solo tienden a tomar estas acciones engañosas y discordantes cuando los investigadores son presionados que prueban los modelos de diferentes maneras.

Si bien algunos podrían atribuir estos problemas a las “alucinaciones”, un problema por el que la IA es muy conocida en este momento, otros no están tan convencidos. Los usuarios también han informado que los modelos de IA no solo son respuestas alucinantes, sino que están mintiendo directamente al usuario, incluso cuando no se les impulsa o se les solicita que lo haga. Algunos ejemplos de estas mentiras incluso se pueden ver en la búsqueda de inteligencia synthetic de Google, donde hemos visto muchos ejemplos de personas que preguntan si hoy es un día y una cita determinada, y la IA que mintió y cube que no lo es, aunque a veces incluso incluyendo el día y la fecha correctos, pero decir que el aviso unique period incorrecto.

Esto plantea algunas preguntas serias sobre si estos puntos de engaño son solo de los modelos que se están empujando demasiado lejos, o si estos son problemas que solo esperaban para surgir en futuros modelos. ¿Se llevarán más modelos futuros y poderosos de estas IA más hacia la honestidad o el engaño? ¿Las amenazas de IA se convertirán en un problema más convencional y menos un apéndice de investigación? Esas son preguntas que muchos investigadores se están haciendo en este momento.

Desafortunadamente, las regulaciones actuales que tenemos para AI tampoco están equipadas para manejar estos problemas. Y con la IA desarrollando y evolucionando tan rápido, es poco possible que tengamos reglas que regulen completamente todo lo que la IA puede hacer. Las regulaciones actuales, como las de la UE, solo se centran en cómo los humanos usan la IA, mientras que el gobierno de los Estados Unidos preferiría desmantelar años de regulación del cambio climático en lugar de common la IA de una manera significativa.

Si bien mantener a los humanos bajo management es bueno, especialmente porque los piratas informáticos ya están utilizando AI para romper la IA, poder common la IA en sí misma también podría ser primordial para mantener la supuesta amenaza que la IA representa para la humanidad bajo management.

fuente