TLDR; Este artículo explora el sorprendente potencial creativo de Alucinaciones de IA en modelos de IA generativos como dall · e. Mientras que generalmente se ve como defectos en aprendizaje profundoestos “errores” pueden producir un brillo artístico inesperado. Al comparar la imaginación humana con la lógica basada en patrones de IA, la pieza cuestiona si las falsedades de la IA podrían ser un nuevo tipo de creatividad. Desafía cómo definimos la verdad, el error y la inspiración en la period de inteligencia synthetic.
¿Qué significa para AI “alucinar”?
El término alucinación ha transportado connotaciones pesadas durante mucho tiempo. Según el Diccionario de aprendizaje avanzado de Oxford, una alucinación es:
“El hecho de parecer ver o escuchar a alguien/algo que no está realmente allí, especialmente por enfermedad o drogas”.
En otras palabras, las alucinaciones generalmente se asocian con falsas percepciones, algo a temer o fijar.
En el mundo de la IA generativa, el significado no es tan diferente. Cuando se cube que un LLM (modelo de lenguaje grande) como ChatGPT o modelo de IA generativo como Dall-E “alucina”, significa que ha producido Información falsa o engañosa. Las implicaciones de esto son graves: sugiere que nunca podemos confiar completamente en el modelo. Los riesgos potenciales? Hechos engañosos, consejos peligrosos o software program roto.
Cuando la alucinación va demasiado lejos
Comencemos con el lado oscuro. Think about que está planeando una noche romántica en una ciudad que nunca ha visitado. Usted pide a ChatGPT que le recomiende un restaurante y elija entre una lista prometedora de lugares. Pero cuando llegas, todos vestidos, descubres que el restaurante no existe en la ubicación especificada. Además, no existe en ningún lugar. De hecho, nunca lo hizo.
¿Irritante? Definitivamente. Pero es un ejemplo relativamente inofensivo.
Ahora considere escenarios más dañinos:
- Información errónea médica conduce a diagnósticos y tratamientos incorrectos.
- Inexactitudes históricas Eso le costó a un estudiante su calificación.
- Errores de código que bloquean los sistemas enteros.
- Mal funcionamiento de la conducción autónoma debido a interpretaciones defectuosas.
Las alucinaciones de IA no son solo efectos secundarios ficticios; ellos pueden tener consecuencias del mundo actual.
El pentágono que no
Hace dos años, una cuenta de Twitter verificada (ahora X) publicó una imagen de una explosión. La foto mostraba una ondulante nube de humo al lado de un edificio con forma de Pentágono. El tweet se volvió viral y provocó una reacción de mercado rápido: el Dow Jones cayó 85 puntos en solo cuatro minutos.
Aquí está el pepinillo: la imagen period falsa.
La imagen probablemente fue generada por AI, y la explosión nunca sucedió. Pero para cuando fue desacreditado, El daño financiero ya se había hecho.
No está claro si fue un indicador ordenado por humanos que creó esa imagen o una alucinación de un modelo, pero de cualquier manera el resultado fue el mismo.
Cuando los bots componen la política
Más recientemente, los usuarios informados de BOT de AI de Cursor que la herramienta ya no podría usarse en más de una máquina. Se produjo indignación: los usuarios se quejaron, algunos incluso cancelaron sus suscripciones.
Solo había un problema: No period cierto.
El CEO de Cursor más tarde aclaró: “No tenemos esa política. Por supuesto, es libre de usar el cursor en múltiples máquinas”. ¿Quién fue responsable, preguntas? “Desafortunadamente, esta es una respuesta incorrecta de un bot de soporte de IA de primera línea”. Declaró el CEO.
Entonces, básicamente, AI había inventado una política de la nada.
La catástrofe del tribunal
Quizás el ejemplo más notorio: dos abogados usaron ChatGPT para ayudar a redactar un informe authorized. El modelo citado casos legales completamente fabricados. Los abogados, sin darse cuenta, los presentaron a un juez federal. El resultado? Sanciones, multas y vergüenza pública.
El juez declaró que habían “abandonado sus responsabilidades” y continuó apoyando las citas falsas incluso después de ser interrogadas.
¿Puede una alucinación ser … bueno?
Estos ejemplos refuerzan una conclusión: No se puede confiar a ciegas. Cada salida debe verificarse dos veces, sin importar cuán convincente y seguro pueda sonar. Aunque, ¿puedes confiar completamente en los humanos?
¿Y qué pasa si miramos la alucinación desde otro ángulo?
Fue entonces cuando recordé algo convincente. Una de las mentes más visionarias de la historia de la tecnología, alguien que literalmente ayudó a dar forma al mundo en el que vivimos, también period conocido por adoptar la alucinación. No por accidente, sino por diseño.
Steve Jobs, el icónico cofundador de Apple, acreditó abiertamente drogas psicodélicas como LSD por expandir su pensamiento creativo. No period tímido por eso. De hecho, describió la experiencia como una de las más profundas de su vida.
Los trabajos no fueron impulsados por la convención: fue impulsado por la imaginación. Ámalo u odio, nadie puede negar la escala de su impacto. No solo construyó productos; Dirigió la realidad para que coincida con su visión. Y si la percepción alterada jugó un papel en ese proceso, ¿no deberíamos reconsiderar lo que queremos decir cuando decimos que una concept, o una imagen, está “alucinada”?
Trabajos, LSD y creatividad
Steve Jobs acreditó abiertamente sus avances creativos a las experiencias psicodélicas. En la biografía de Walter Isaacson Steve Jobscube:
“Tomar LSD fue una experiencia profunda, una de las cosas más importantes de mi vida. LSD te muestra que hay otro lado de la moneda, y no puedes recordarlo cuando desaparece, pero lo sabes. Reforzó mi sentido de lo que period importante, creando grandes cosas en lugar de ganar dinero”. (p. 37, capítulo: “El abandono”)
Si una alucinación puede ayudar a un humano a ver el mundo de manera diferente, ¿podría una alucinación de IA tener el mismo propósito?
Cuando la alucinación se convierte en una brújula creativa
¿Podría la alucinación, cuando se coloca en el contexto correcto, ser más que un defecto? ¿Podría, de hecho, convertirse en imaginación? En áreas donde la precisión es secundaria a la visión, como el arte, la narración de historias o el diseño, tal vez no estamos mirando un error, sino una característica inesperada.
En mi artículo anterior, exploré cómo las alucinaciones de Dall-E llamadas alucinaciones convirtieron los bocetos de los niños en ilustraciones vibrantes y completas. La IA llenó los espacios en blanco no con hechos, sino con el estilo, interpretando en lugar de replicar.
¿Pero podemos ir más allá?
Como artista, conozco el peso de un bloque creativo. Se escabulle en silencio, luego permanece más tiempo de lo que debería. Cuanto más intente forzar la originalidad, más sus concepts vuelven a los mismos patrones familiares: seguros, predecibles y sin inspiración. Desglosas Pinterest durante horas, buscando una chispa, pero tu mente sigue rodeando las cosas que ya se ha visto.
¿Qué pasa si la IA generativa no es solo una herramienta, sino una especie de medicina creativa? No para reemplazar la imaginación humana, sino para soltarla. Para sugerir caminos que nunca caminaríamos por nuestra cuenta. Tal vez, en el espacio entre precisión y error, encontramos algo mejor: sorpresa.
La lógica es tu enemigo
Nuestras mentes están conectadas para coherencia.
Cuando vemos un castillo, imaginamos a una princesa. ¿Un perro? Probablemente persiguiendo una pelota. ¿Un niño pequeño? Abrazando a un oso de peluche.
Este reconocimiento automático de patrones es increíblemente útil para la vida diaria: nos ayuda a navegar por el mundo de manera rápida y eficiente. Pero aquí está la trampa: también se construye invisible cajas en nuestros cerebros. Cajas que límite Nuestro potencial creativo.
La trampa de categorización: a tu cerebro ama una historia
Echemos un vistazo a las siguientes tarjetas:
Ahora think about que te pedí que los agruparan en 3 categorías pares. La mayoría de las mentes verían esto instantáneamente:
- A cielo nocturno con la luna, una nube y una estrella
- A fiesta de té escena con una mesa, una porción de pastel y tal vez una tetera
- A bosque con un zorro, un árbol y un hongo
Puede agregar variación: tal vez su zorro está olfateando el hongo, o tal vez si es más creativo que la persona promedio, está sentado junto a una fogata, asando en un palo. Pero incluso en nuestro más imaginativo, Todavía nos apegamos al guión. El contexto nos bloquea en un marco.
Y cuando todos trabajan desde el mismo marco … la singularidad muere un poco.
Rompiendo el contexto (a propósito)
Ahora vamos a romperlo.
Caminemos a lo esperado y arrojemos nuestros instintos lógicos por la ventana. Desafiemos la lógica a favor de la creatividad ilimitada.
Think about esta agrupación en su lugar:
Sí. Tu cerebro se estancó, ¿no?
Es possible que no pudieras crear un visible. O si lo hiciste, se sintió desarticulado, absurdo, incluso incómodo.
¿Pero adivina qué no lucha? AI generativa, por supuesto.
Presentemos la siguiente agrupación en su lugar:
Y ahora, disfrutemos de la imaginación ilimitada de Dall-E 3.
Comienza a celebrar el cumpleaños con un pastel de hongos
Árbol bebiendo té dentro de una nube
Social gathering de té de zorro y luna
Libre de lógica humana
Dall-E pudo mezclar fácilmente conceptos que nunca coexisten en el mundo actual (alucinaciones).
¿Por qué hay tanta diferencia entre nuestras mentes y su pensamiento?
Los humanos tienden a razonar en función de significado, coherencia y experiencia vivida. Cuando se le pide que imaginaran una escena que involucra una luna, un zorro y una mesa, nuestro cerebro intentan instintivamente dar sentido a la combinación. Queremos una narración. Nuestras mentes buscan lógica, contexto o metáfora, y cuando no podemos encontrar una, a menudo nos detenemos o nos rendimos. Eso es porque el cerebro humano es optimizado para relevanciano aleatoriedad.
Dall-E, por otro lado, no confía en la memoria private o la lógica lineal. Está entrenado en miles de millones de imágenes y subtítulosexponiéndolo a innumerables combinaciones visuales – Muchos de ellos inusuales o incluso surrealistas. Entonces, cuando lo indica con elementos no relacionados como una luna, un zorro y una mesa, no duda ni se pregunta si la conexión “tiene sentido”. En su lugar, se basa en el patrones estadísticos de cómo han aparecido estos objetos juntos, cerca el uno del otro, o en contextos visuales similaresincluso si indirectamente.
En otras palabras:
- Los humanos necesitan coherencia.
- Dall-E solo necesita correlación.
Y ahí radica su poder: al estar libre de la necesidad humana de lógica o consistencia interna, Dall-e puede generar con confianza lo absurdo, lo poético o lo bellamente extraño – Todo sin dudas a sí misma.
La musa de un humano
Nos han enseñado a temer la alucinación, con razón en muchos dominios. En medicina, derecho, historia y sistemas críticos de seguridad, la IA debe tener un nivel de verdad más alto. ¿Pero en el arte, el diseño y la imaginación? Las reglas son diferentes.
El mismo “defecto” que hace que la IA no sea confiable como fuente objetiva podría ser lo que lo hace tan poderoso como un compañero creativo. La alucinación, en las manos correctas, se convierte en algo completamente diferente: una chispa.
Cuando Dall -E “malinterpreta” un zorro, una luna y una mesa, no falla, atrevidos. Nos invita a aflojar nuestro management de la lógica, a ver qué sucede cuando dejamos de lado la narración y abrazar la posibilidad.
Este fenómeno puede curar el bloque de un artista ayudando a nuestra mente a aflojar el contexto y la lógica, puede impulsar la creatividad y provocar concepts que podrían haber estado más allá de nuestro alcance.
Entonces, tal vez la verdadera pregunta no es “¿podemos evitar que AI alucine?”
Quizás lo sea: ¿Qué podemos construir cuando lo dejamos soñar?
Acerca de mí
Soy Maria Piterberg: una experta en IA que lidera el equipo de software program de tiempo de ejecución en Habana Labs (Intel) y un artista semiprofesional que trabaja en medios tradicionales y digitales. Me especializo en sistemas de capacitación de IA a gran escala, incluidas las bibliotecas de comunicación (HCCL) y la optimización de tiempo de ejecución. Licenciado en Ciencias de la Computación.