Desde lo sincero hasta lo ridículo, una alucinación de IA puede no aparecer inmediatamente como una amenaza, por lo que todos necesitan saber cómo evitar cometer lo que podría ser un error costoso.
La inteligencia synthetic (IA) puede dar claridad a los temas complejos al desglosar enormes conjuntos de datos y construir una narrativa sobre figuras e información a gran escala. Para los profesionales en roles que tratan constantemente cantidades significativas de datos, puede ser un verdadero Gamechanger, ya que permite un día de trabajo optimizado y la reasignación de tiempo para tareas de mayor valor.
Pero la IA viene con una advertencia, ya que solo es tan fuerte o tan confiable como la persona que la construyó y la persona que decidió cómo entrenarla. Alucinaciones de IAque son respuestas no sensibles, inexactas o engañosas, entregadas como una respuesta generada, son un fenómeno que ocurre cuando un modelo de lenguaje grande utiliza información de un no acreditado, no acreditado, sin acreditar, incluso absurdo fuente, presentándolo como sincero.
Si bien a veces puede ser increíblemente obvio que un “hecho” proporcionado por un mensaje de IA es ficticio, no siempre puede ser claro y, a menudo, las personas en los trabajos que dependen de la precisión y la transparencia podrían enfrentar serias repercusiones si un error se desliza bajo el radar. Entonces, ¿cómo pueden mejorar los profesionales para reconocer mejor una alucinación de IA?
Considere la educación formal
Es justo decir que para muchas personas en la fuerza laboral, particularmente generaciones más jóvenes como Genz y Millennials, gran parte de lo que sabemos sobre tecnología y herramientas modernas que aprendimos a través de la exposición. Hay mucho que decir para aprender en el trabajo, sin embargo, la educación formal también puede dar a los profesionales una ventaja, así como prepararlos para desafíos nuevos y emergentes planteados por un panorama cambiante.
La mayoría de las veces, los errores son un subproducto de falta de capacitación, por lo que para asegurarse de que esté en la mejor posición para reconocer una situación en la que una alucinación de IA es una posibilidad, ¿por qué no buscar en un curso en línea, una opción externa o oportunidades de seminarios internet?
Las organizaciones acreditadas de EDTech, como Coursera, Khan Academy y LinkedIn Studying, a menudo tienen una variedad de módulos, a veces free of charge, para atraer a casi todos los estilo de vida. Además, si desea algo un poco menos casual, podría ser una oportunidad para considerar la participación de la educación del tercer nivel, las clases nocturnas o microcredenciales.
Pensar críticamente
Una regla common cuando se trata de tecnologías avanzadas es, cuando sea posible, no entra en nada ciega o no acepte nada sin duda. Las alucinaciones de IA pueden ser engañosas y un profesional necesitará habilidades críticas de pensamiento Para determinar la veracidad de la información.
Trabajar en sus habilidades de pensamiento crítico implicará una comprensión más profunda de cómo obtener, analizar e incorporar fuentes creíbles en su tarea common. Las herramientas de verificación de hechos de sitios de buena reputación pueden ser de ayuda, especialmente hasta que tenga más confianza en su capacidad para reconocer un recurso legítimo.
Además, los profesionales deben ser conscientes de sus propios prejuicios y cualquier punto ciego potencial que puedan tener, para garantizar que sus propias experiencias y opiniones no se presenten como un hecho.
Ingeniería rápida
Si bien existe la concept errónea común de que la IA es casi infalible, con el potencial de responder cualquier pregunta en la que se pueda pensar, nada podría estar más lejos de la verdad. La IA no solo genera respuestas basadas en sus aprendizajes de máquinas diseñadas por humanos, sino que también está respondiendo a la pregunta en relación con cómo lo expresó, lo que puede ser una pesadilla contextual si carece de habilidad en esa área.
La mejora de la rápida ingeniería brinda a los usuarios la mejor oportunidad de redactarse a sí mismos como se pretenden y pueden lograrse siendo extremely específicos, breves y precisos. Excluya los detalles superfluos y si no comprende completamente la respuesta o si cree que podría mejorarse, asegúrese de hacer preguntas de seguimiento hasta que no haya ambigüedad.
No seas vago o sesgado y mantengas talleres tu pregunta hasta que esté seguro de que es fuerte. Además, si la respuesta sugiere algo como un hecho, asegúrese de pedirle que proporcione la fuente desde la que ha extraído la información, para que pueda confirmar su autenticidad. Cuanto más específico sea, menos espacio tiene el modelo realmente para interpretar lo que ha dicho o crear una alucinación.
Así que ahí está, tres excelentes formas de asegurarse de que la próxima vez que se relacione con materiales generados por IA, tiene las habilidades para ver más allá del humo y los espejos.
No se pierda el conocimiento que necesita para tener éxito. Regístrese para el Informe diarioDigest de Silicon Republic de noticias de tecnología de ciencia ficción necesaria.