
Es muy frecuente que los «chatbots» generen información incorrecta, inexistente o «inventada» como si fuera verdadera. ¿A qué se debe?
18 abr 2025 . Actualizado a las 05:00 h.En las redacciones de los periódicos se producen maravillosas tormentas de ideas. Tras un pico de adrenalina, en uno de esos escasos momentos valle de la actualidad, solo hace falta que una compañera empiece una frase con «¿Y si...?» y otro responda con «¿Por qué no?» para que los pensamientos felices y, a veces geniales, afloren y fructifiquen.
En uno de esos mágicos instantes, en los últimos estertores del 2024, en la redacción central de La Voz se nos ocurrió hacerle una pregunta capciosa a la versión de pago de ChatGPT. «¿Qué es lo más importante que ha pasado este año en Galicia?» Como un profesor resabiado (conocíamos todas las posibles respuestas y desconfiábamos del alumno), íbamos a pillar. ¿Salimos airosos? Sí. Y más contentos que si George R.R. Martin (el autor de Juego de tronos) nos hubiera confirmado que iba a salir el próximo libro de su inacabada saga. Habíamos pillado a la IA en un monumental renuncio: demostró que no vale para proveer información certera sin supervisión humana.
ChatGPT se inventó algunas cosas. Trastocó otras. Y se olvidó de anécdotas como las elecciones autonómicas del 18F, pero realmente nos impactó con una tendencia no detectada, más que inesperada. Según el chatbot de OpenAI, lo más importante del 2024 fue que los ciudadanos portugueses viajaron constantemente en masa a Ourense para comprar y comer bizcocho de castañas.
Nadie duda de la excelente oferta gastronómica de la ciudad de As Burgas -merece visitas frecuentes-, pero la aseveración de ChatGPT no se corresponde con la pregunta. La respuesta es un perfecto ejemplo de una «alucinación» de inteligencia artificial.
¿Qué son las «alucinaciones» de IA? Démosle la palabra a uno de los asistentes de lenguaje más certeros que hay en el mercado, Claude, de la estadounidense Anthropic, para que explique el concepto en primera persona: «Las alucinaciones en IA se refieren a cuando un sistema de inteligencia artificial como yo genera información incorrecta, inexistente o fabricada, pero presentándola con confianza como si fuera verdadera. Es similar a cuando una persona podría "inventar" información, pero en nuestro caso, es un resultado no intencional del proceso de generación».

La IA miente sin ser consciente
La explicación de Claude es certera. Los chatbots de IA mienten sin ser conscientes, obligados por su programación a responder, pero sin poder discernir si lo que dicen es cierto o no. Confían primero en su entrenamiento, y después en su capacidad de búsqueda en internet, para elaborar mensajes que en teoría se corresponden con la pregunta formulada, y ahí surgen los problemas.
ChatGPT y sus hermanos pueden generar una cita inexistente atribuida a un autor famoso, inventar eventos históricos que nunca ocurrieron, o crear referencias a artículos científicos que no existen. También pueden hacer una reseña o resumen de un libro que parezca correcto sin serlo (Muchos alumnos han suspendido por no confiar en su propia capacidad de estudio y aprendizaje y subcontratar trabajos a la IA). O decirte que han reducido un texto a 1.500 caracteres y realmente ofrecerte 2.000 o 1.200 (no saben contar bien). ¿A qué se debe?
Secuencias de palabras
Hay varias explicaciones, compatibles entre sí. Para empezar, una IA es tan buena como su entrenamiento. Si se han aprendido patrones incorrectos, el camino a la «alucinación» está alfombrado. Debemos de tener en cuenta la naturaleza de los chatbots. Predicen «secuencias de palabras probables» (la expresión es de Claude) y no tienen «mecanismos efectivos» para verificar la información. También debemos reflexionar sobre que le pedimos a la inteligencia artificial que responda en tiempo real, en segundos. Eso lleva a la máquina a hacer algo muy humano: completar la información que tenga y presentarla lo mejor que pueda aún cuando no haya encontrado datos suficientes.
En muchos casos el error viene de la necesidad de hacer una composición a partir de fragmentos de información de distintas fuentes o de la extrapolación excesiva a partir de datos limitados. Por volver al ejemplo del principio, puede encontrarse en la web alguna noticia de dulces ourensanos capaces de haber atraído la atención de algún ciudadano portugués, pero eso no significa que sea lo más importante que ha pasado en Galicia en el 2024. ¿O no?
Mientras la IA no consiga evolucionar lo suficiente -e incluso en ese caso- siempre hará falta supervisión humana, cuanto más informada, mejor. Recuerda el mensaje que incluye siempre OpenAI cuando le encargamos una tarea a su chatbot: «ChatGPT puede cometer errores. Considera verificar la información importante». No lo dicen por decir y no se van a hacer responsables si cometes un error basado en su información. ¿Quién lo paga? Tú.