Una imagen desgarradora capturada en Gaza, que muestra a una joven severamente desnutrida sostenida en los brazos de su madre, se ha convertido en el último punto de inflamación en la batalla en curso sobre la verdad, la tecnología y la guerra de Israel-Hamas.La foto, tomada el 2 de agosto de 2025 por el fotoperiodista de la AFP, Omar al-Qattaa, documenta el marco esquelético y frágil de Mariam Dawas, de nueve años, en medio de los crecientes temores de la hambruna masiva en el asediado enclave palestino. El bloqueo de Israel de la tira de Gaza ha cortado la ayuda humanitaria crítica, llevando a más de dos millones de residentes al borde de la inanición.Pero cuando los usuarios recurrieron al chatbot de IA de Elon Musk, Grok, en X para verificar la imagen, la respuesta fue asombrosamente fuera de la marca. Grok insistió en que la foto fue tomada en Yemen en 2018, alegando que mostró a Amal Hussain, una niña de siete años cuya muerte por hambre fue titularmente los titulares globales durante la Guerra Civil de Yemen.Esa respuesta no fue solo incorrecta, fue peligrosamente engañosa.Cuando la IA se convierte en una máquina de desinformaciónLa identificación defectuosa de Grok se extiende rápidamente en línea, sembrando confusión y duda de armas. El legislador francés de izquierda Aymeric, que compartió la imagen en solidaridad con los palestinos, fue acusado rápidamente de difundir la desinformación, a pesar de que la imagen period auténtica y precise.“Esta imagen es actual, y también lo es el sufrimiento que representa”, dijo Caron, empujando hacia atrás contra las acusaciones.La controversia destaca una tendencia profundamente inquietante: a medida que más usuarios confían en las herramientas de IA para verificar el contenido, los errores de la tecnología no son solo errores, son catalizadores para desacreditar la verdad.Una tragedia humana, enterrada bajo un error algorítmicoMariam Dawwas, una vez que un niño sano pesa 25 kilogramos antes de que comenzara la guerra en octubre de 2023, ahora pesa solo nueve. “La única nutrición que recibe es la leche”, dijo su madre Modallala a la AFP, “e incluso eso no siempre está disponible”.Su imagen se ha convertido en un símbolo de la profundización de la disaster humanitaria de Gaza. Pero el fallo de grok la redujo a un punto de datos en el archivo incorrecto, una alucinación de IA con consecuencias del mundo actual.Incluso después de ser desafiado, Grok inicialmente se duplicó: “No difunde noticias falsas; baso mis respuestas en fuentes verificadas”. Si bien el chatbot finalmente reconoció el error, nuevamente repitió la atribución incorrecta de Yemen al día siguiente.