lunes, 6 de octubre de 2025

Alucinaciones en Mente y Máquina

 
 

La Inteligencia Artificial es un área de estudio multi-disciplinario. Hoy les traigo un resumen de un artículo científico que explora el tema sobre Alucinaciones en humanos y en máquinas.

El enlace al artículo, en inglés, es el siguiente, para aquellos que quieran profundizar en el tema:
"I Think, Therefore I Hallucinate: Minds, Machines, and the Art of Being Wrong"
"Pienso, luego alucino: Mentes, máquinas, y el arte de equivocarse", por Sebastián Barros (4 Marzo 2025).

El resumen, la transcripción y la traducción de este artículo fueron hechos usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.


Resumen

Alicia
¿Te ha pasado alguna vez ese momento? Ya sabes, cuando recuerdas vívidamente haber puesto las llaves en un lugar específico.

Beto
Sí, claro.

Alicia
Y luego, más tarde, de repente, la memoria te falla por completo.

Beto
Pasa todo el tiempo.

O quizá has visto una IA en internet, ¿no? Afirmando algo con total confianza. Suena totalmente plausible, pero está inventado. Es tu ficción.

Alicia
Sí. Exacto. Hoy nos sumergimos en este cruce tan fascinante: esas alucinaciones, tanto en nuestras propias mentes como en la inteligencia artificial.

Beto
Y normalmente las pensamos solo como errores, ¿sabes?, fallos del sistema.

Alicia
Sí, bugs ("bichos").

Beto
Pero ¿y si esta tendencia, esa de percibir cosas que no están del todo ahí, fuera en realidad algo fundamental, como una parte central de cómo los sistemas inteligentes —biológicos o artificiales— comprenden un mundo muy complejo?

Alicia
Esa es la idea realmente intrigante que vamos a abordar. Hacemos hoy una inmersión profunda en este trabajo teórico: "Pienso, luego alucino: mentes, máquinas y el arte de equivocarse", de Sebastián Barros, salió en marzo de 2025. Y nuestro objetivo no es solo averiguar por qué nosotros y la IA metemos la pata; es explorar esta idea provocadora de que la tendencia al error podría estar entrelazada con la inteligencia misma.

Beto
Sí, le da un giro al guión.

Alicia
Totalmente. Así que prepárate para algunos momentos “ajá” mientras desmontamos todo esto.

Beto
Bueno, primero, aclaremos qué entendemos por alucinaciones. Sí, porque el término puede estar cargado. Desde el lado humano, como lo plantea Barros, se trata de percibir patrones, hechos o incluso realidades completas que no coinciden con lo que realmente hay afuera. Y no es solo ruido aleatorio, por lo general. A menudo surge de la constante predicción del cerebro, que siempre intenta interpretar el mundo aún con datos incompletos, rellenando huecos, esencialmente.

Alicia
Vale, desgranémoslo. Nuestro cerebro es como si intentara resolver un rompecabezas.

Beto
Más o menos.

Alicia
Y si faltan piezas, las dibuja basado en experiencias pasadas, en lo que espera.

Beto
Exacto. Por ejemplo, vas caminando a casa de noche y ves una silueta oscura. Tu cerebro puede marcarla instantáneamente como una persona, aunque sea solo, no sé, un arbusto de forma extraña.

Alicia
Una predicción rápida basada en el contexto y quizá un poco de miedo.

Beto
Ajá. Barros señala que estos grandes modelos de lenguaje, los LLMs, hacen algo análogo. Algunos estudios sugieren que alucinan bastante, de hecho.

Alicia
Bueno, ¿de cuánto estamos hablando?

Beto
Una estimación mencionada apunta a alrededor del 37,5% de las respuestas pudiendo contener algún tipo de alucinación, lo cual es significativo.

Alicia
Vaya. Sí. Es mucha incorrección confiada flotando por ahí.

Beto
Y ahí está la parte fascinante con la IA: esas alucinaciones suelen aparecer como errores factuales, pero las frases son perfectamente coherentes y gramaticalmente correctas.

Alicia
Suenan bien.

Beto
Exactamente. Pero aquí está la diferencia crucial: los humanos tenemos sentidos, ¿verdad? Vista, oído, tacto. A menudo podemos contrastar nuestra imagen interna con la realidad entrante.

Alicia
Como que puedo estirar la mano y tocar el arbusto para ver que no es una persona.

Beto
Precisamente. Sí. Los modelos de IA aprenden puramente de texto. Grandes cantidades, vale, pero son solo patrones de palabras, probabilidades de secuencias. No hay un ancla sensorial directa con el mundo real.

Alicia
Entendido.

Y eso nos lleva a la gran pregunta provocadora que plantea Barros: ¿es esta tendencia a alucinar, a equivocarse, simplemente una característica inevitable de la inteligencia? Y si lo es, tal vez la meta no debería ser eliminarla por completo en la IA, sino hacer que la IA alucine mejor. Más como los humanos.

Beto
Suena contraintuitivo, ¿no? Como que queramos errores.

Alicia
Sí. Normalmente queremos precisión perfecta, cero fallos.

Beto
Pero piensa en los mecanismos compartidos un segundo. Tanto humanos como sistemas de IA parecen operar yendo más allá de los datos inmediatos que tienen.

Alicia
Extrapolando.

Beto
Exacto. Esa figura sombría en la noche: vas más allá de la mera forma oscura a una amenaza o persona potencial. Una IA, quizá, si le preguntan sobre un tema muy específico donde sus datos son escasos, puede inventar detalles que suenan plausibles para dar una respuesta aparentemente completa. Está rellenando huecos basándose en patrones textuales que conoce.

Alicia
Correcto. Barros menciona ver caras en las nubes, ¿no? Nuestro cerebro impone un patrón familiar.

Beto
Pareidolia clásica.

Alicia
Y un LLM, si no conoce una referencia concreta, podría inventar una cita de un artículo que parece totalmente real.

Beto
Sí, hemos visto eso.

Alicia
Y aquí se pone realmente interesante: ambos sistemas pueden estar increíblemente confiados sobre esas invenciones.

Beto
Absolutamente. Puedes jurar que viste un modelo y marca de coche pasar ...

Alicia
... solo para que las cámaras te demuestren que estabas equivocado.

Beto
Y una IA puede presentar un hecho histórico fabricado con una certeza total en su tono.

Alicia
Esa confianza sin verificación: es un paralelismo llamativo.

Beto
Lo es. Pero tenemos que mantener las diferencias en primer plano. Los humanos tenemos ese rico anclaje multisensorial, ...

Alicia
... las emociones y la encarnación. El ejemplo de tocar el arbusto.

Beto
Sí. Si esa persona en la sombra empezara a levitar, todo tu sistema gritará “error”, porque viola la física y llega información sensorial contradictoria. La IA entrenada con texto solo comprueba si las palabras suenan bien juntas. ¿Aparece “persona levitando” en contextos plausibles en sus datos? Por eso sus errores a veces parecen desconectados de la realidad física.

Alicia
Y nuestros mecanismos de corrección son distintos también. Cuando nos damos cuenta de que quizá estamos equivocados, podemos cuestionarnos conscientemente, mirar más de cerca, preguntar a otra persona.

Beto
Tenemos metacognición, una especie de conciencia de nuestro propio pensar.

Alicia
Sí. Pero para la IA hay que construir explícitamente esos controles, ¿no? Como retrieval-augmented generation (RAG), donde busca información, ...

Beto
... módulos de verificación textual, puntuación de confianza, cosas así. Son soluciones diseñadas, no procesos biológicos inherentes.

Alicia
Hablemos de teorías. ¿Qué se piensa sobre por qué esto pasa en los humanos?

Beto
En la cognición humana, una idea influyente es el procesamiento predictivo. Piensa al cerebro no solo recibiendo información pasivamente, sino prediciéndola constantemente.

Alicia
Como adivinando lo que viene después.

Beto
Exacto. Usa conocimiento previo y creencias sobre cómo funciona el mundo para generar expectativas. Luego compara esas expectativas con la entrada sensorial real. La teoría sostiene que la percepción es básicamente el proceso de actualizar esas expectativas según la evidencia sensorial. Pero si tu expectativa previa es muy fuerte, ...

Alicia
... puede anular los sentidos ...

Beto
... o al menos sesgar fuertemente tu interpretación, sobre todo si la entrada sensorial es ambigua o ruidosa. Eso puede llevar a percepciones erróneas: ver o escuchar lo que esperas en lugar de lo que realmente está ahí. Está ligado a ideas como minimizar el error de predicción o la energía libre.

Alicia
Vale. Fuertes expectativas moldeando la realidad. Por ejemplo, si estás muy estresado y esperando una llamada, podrías oír el teléfono sonando débilmente.

Beto
Buen ejemplo. Tu cerebro está alerta a esperar una llamada, así que interpretas un ruido ambiguo como teléfono.

Alicia
¿Y del lado de la IA?

Beto
Para la IA, especialmente los grandes modelos de lenguaje, el mecanismo central es el modelado autorregresivo.

Alicia
"Autorregresivo" significa ...

Beto
Significa que predice el siguiente elemento en una secuencia en función de los anteriores, en este caso el siguiente token, que puede ser una palabra o parte de una palabra.

Alicia
Bien. Predecir la siguiente palabra de la frase.

Beto
Exacto. Modelos como los "transformadores" usan mecanismos sofisticados, en particular la autoatención, para ponderar la importancia de palabras previas al hacer esa predicción. Aprenden distribuciones de probabilidad a partir de enormes conjuntos de texto. Dada una secuencia, calculan probabilidades para todos los posibles siguientes tokens y normalmente eligen una de las opciones de alta probabilidad.

Alicia
¿Entonces de dónde vienen las alucinaciones en ese proceso?

Beto
Pues de varios sitios. Los datos de entrenamiento pueden contener errores o sesgos. El modelo puede sobregeneralizar patrones. Y el acto mismo de muestreo probabilístico significa que no siempre escoge la palabra más probable; a veces escoge una menos probable pero plausible que resulta incorrecta.

Alicia
Es parte del juego de adivinar probabilísticamente.

Beto
Y, en cierto modo, sí: el objetivo suele ser generar texto coherente y probable, no necesariamente factual, salvo que se entrene o guíe específicamente para eso.

Alicia
Así que en humanos y en IA, ese proceso de predecir, de rellenar huecos con información previa o patrones aprendidos, es poderoso pero abre la puerta a estas alucinaciones.

Beto
Exactamente. Barros incluso desglosa estas distintas maneras de estar equivocado en una especie de taxonomía.

Alicia
Ah, vale: como diferentes sabores de alucinación.

Beto
Más o menos. Identifica cuatro tipos principales, trazando paralelos:

1) Sensorial o perceptual.

Alicia
Como ver cosas que no existen.

Beto
Exactos. En humanos, ilusiones visuales, alucinaciones auditivas como oír voces, el cerebro malinterpretando señales sensoriales o generando percepción sin estímulo externo.

Alicia
Y el equivalente en IA ...

Beto
... no encaja perfectamente para LLMs solo de texto, pero podríamos verlo en generadores de imágenes: piensa en DeepDream, donde la IA amplifica patrones que reconoce y produce esas imágenes psicodélicas llenas de perros y formas. Está generando contenido visual no estrictamente presente en la entrada.

Alicia
Bien. Ve cosas basadas en su entrenamiento.

¿Cuál es el segundo tipo?

2) Cognitivo o confabulador.

Alicia
Confabular: inventar cosas sin intención de mentir.

Beto
Exacto. En humanos suele vincularse a trastornos de la memoria, como el síndrome de Korsakoff, o a ciertas condiciones psiquiátricas. Es rellenar sin querer huecos de la memoria con narrativas plausibles pero inexactas, a veces mezclando el origen de la información.

Alicia
En los LLMs ...

Beto
... se ve muy parecido: el modelo puede mezclar fragmentos de información de distintas fuentes de forma incorrecta, inventar detalles para que una historia parezca completa o crear referencias que no existen para sostener una afirmación. Intenta producir una salida coherente a partir de datos internos posiblemente fragmentarios.

Alicia
Como la persona que te cuenta con seguridad un relato detallado sobre un evento al que no asistió porque su memoria juntó piezas erróneamente.

Beto
Esa es una buena forma de pensar sobre esto. Sí. Rellenar huecos para mantener la coherencia de la narrativa.

Alicia
Bien. Tercer tipo ...

3) Alucinaciones factuales.

Beto
Quizá la más directa y debatida online.

Alicia
Dar los hechos mal.

Beto
Sí. Para humanos, mantener creencias erróneas sobre el mundo por desinformación, conocimiento obsoleto o simplemente no aprender el dato correcto.

Alicia
Por ejemplo, pensar que "París es la capital de Italia".

Beto
Exacto. Para una IA es producir afirmaciones objetivamente falsas sobre el mundo real: fechas incorrectas, atribuir citas mal, mencionar libros o eventos inexistentes, cosas que suenan plausibles pero son falsas.

Alicia
La IA te expone un hecho completamente fabricado con gramática perfecta, pero el núcleo factual está equivocado.

Beto
Todos hemos visto mucho de eso.

Alicia
Bien. Y la última categoría ...

4) Alucinaciones contextuales.

Beto
Se trata de malinterpretar según la situación o la información previa.

Alicia
¿Cómo es eso?

Beto
En humanos puede ser interpretar estímulos ambiguos según tu estado emocional o el contexto: si estás ansioso en una multitud puedes ver caras neutrales como amenazantes, o creer oír tu nombre en un ambiente ruidoso cuando esperas a alguien.

Alicia
Tu expectativa forma la percepción de algo ambiguo.

Beto
Correcto. En la IA ocurre cuando el modelo se deja llevar por el prompt del usuario si contiene información errónea, o cuando confía en información incorrecta generada antes en la misma conversación y la amplifica, tomando un supuesto falso como verdadero y construyendo encima.

Alicia
Básicamente “garbage in, garbage out”: si la configuración es errónea, la continuación también lo será, aunque sea lógicamente consistente con la premisa equivocada.

Beto
Precisamente. Es alucinación, basada en un contexto falso.

Alicia
Es impresionante ver estos paralelos trazados. Aunque los sistemas subyacentes sean tan diferentes —cerebro y silicio— existen modos de fallo compartidos, tendencias comunes.

Beto
Absolutamente. Barros enfatiza esa tendencia compartida a sobregeneralizar y rellenar huecos. Parece fundamental para cómo ambos sistemas intentan dar sentido a las cosas.

Alicia
Pero, como dijiste, hay que mantener las diferencias en primer plano.

Beto
Definitivamente. El anclaje sensorial, la experiencia emocional y la encarnación humana son profundamente diferentes del mundo puramente lingüístico o basado en píxeles de la IA actual.

Alicia
Y los mecanismos de corrección se desvían: nuestra metacognición y verificación social frente a parches ingenieriles como RAG o sistemas de verificación.

Beto
Y las apuestas se sienten distintas también.

Alicia
¿Qué quieres decir?

Beto
Para una persona con alucinaciones clínicas puede causar un gran sufrimiento y afectar su vida profundamente. Para la IA, los riesgos son más sociales: difundir desinformación, erosionar la confianza en la tecnología, tomar decisiones erróneas basadas en salidas defectuosas.

Alicia
Distintos tipos de consecuencias.

Beto
El artículo toca brevemente la mitigación, ¿no? Cómo intentamos arreglar esto.

Alicia
Sí. Para humanos hay terapias, a veces medicación en casos clínicos, y el pensamiento crítico para errores cotidianos.

Beto
Para IA, mejorar los datos de entrenamiento, hacer "reinforcement learning from human feedback" (RLHF, aprendizaje reforzado a partir de retroalimentación humana) para penalizar inexactitudes, y la variedad de métodos mencionados para calibrar la confianza de la IA.

Alicia
Hacerle saber cuándo no sabe.

Beto
Exacto. Pero Barros vuelve a esa idea provocadora: el posible valor de equivocarse.

Alicia
Cuéntame más. Sigue sonando raro.

Beto
El argumento, o la hipótesis, es que esa capacidad misma de errar, de ir más allá de datos estrictamente exactos, podría estar profundamente ligada a rasgos positivos como creatividad, adaptación, inferencia, imaginación e innovación. Piénsalo: dar un salto intuitivo a menudo implica alejarse de los hechos establecidos, hacer una conjetura, formular una hipótesis que inicialmente puede ser incorrecta.

Alicia
La capacidad de construir una realidad no atada estrictamente al input inmediato podría ser lo que nos permite imaginar nuevas posibilidades.

Beto
Esa es la línea de pensamiento. El artículo incluso especula que a medida que la IA avance, quizá no dejará de alucinar por completo; tal vez las alucinaciones se vuelvan más sutiles, más matizadas, más difíciles de detectar.

Alicia
Es un pensamiento algo inquietante. Una IA superinteligente haciendo aseveraciones plausibles pero erróneas.

Beto
Resalta la necesidad de verificación robusta, desde luego. Pero también sugiere que quizá la inteligencia libre de errores no sea el único objetivo —o ni siquiera el más deseable— si eso va en detrimento de la creatividad o la adaptabilidad.

Alicia
Es como si el sistema necesitara algo de margen de juego para ser realmente inteligente.

Beto
Y esto conecta con la idea final: la necesidad de algo parecido a la autoconciencia o la metacognición en la IA.

Alicia
Saber sobre su propio conocimiento o falta de él.

Beto
Exacto. Nuestros cerebros tienen mecanismos complejos de comprobación interna y la capacidad de reflexionar sobre nuestros propios procesos mentales, de sentir incertidumbre. El artículo sugiere que construir capacidades análogas en la IA —que sean conscientes de sus limitaciones o de los niveles de confianza de sus salidas— es crucial para volverlas fiables y dignas de confianza.

Alicia
Así que, no se trata solo de parar los errores, sino de que la IA sepa cuándo puede estar equivocándose.

Beto
Esa parece ser una dirección clave.

Alicia
Para concluir: parece que estas alucinaciones, ya sea ese fogonazo de recuerdo falso nuestro o una falsedad confiada de una IA, no son simplemente errores sueltos o fallos aleatorios.

Beto
Probablemente no. El argumento es que pueden ser un subproducto fundamental de cómo funciona cualquier sistema inteligente que tenga que predecir y operar con información incompleta. Es la desventaja de una enorme ventaja.

Alicia
La capacidad de predecir y generalizar.

Beto
Exacto. Eso es esencial para navegar el mundo o para generar texto novedoso.

Alicia
Vaya. Eso cambia la perspectiva.

Beto
Y deja una pregunta profunda: si nuestras propias mentes hacen constantemente esta danza predictiva, rellenando huecos y modelando la realidad según cosas anteriores, ¿cuánto de lo que percibimos como realidad objetiva está realmente “ahí” ...

Alicia
... y cuánto es construcción interna, nuestra mejor conjetura?

Beto
¿Podría aceptar esta idea —la necesidad de alucinar mejor, quizá mejorando nuestra propia metacognición y corrección de errores— llevar no solo a mejores IA, sino quizá a una comprensión más profunda de nosotros mismos?

Alicia
Es para masticar. Mucho en qué pensar.

Beto
Seguro.

Alicia
Te llevamos en esta inmersión por el fascinante arte de equivocarse. Esperamos que les haya dado, a nuestros oyentes, algo para reflexionar. Quizá revisen sus propias suposiciones sobre conocimiento, error e inteligencia.

Beto
Hasta la próxima.

Alicia
Hasta nuestra siguiente exploración.