Salvador Castell-González
Vivimos en la era de la respuesta inmediata, pagando un precio invisible por la velocidad y esa sensación de “inteligencia a la mano”. El gran malentendido de nuestra década es confundir a la inteligencia artificial (IA) con una enciclopedia infalible. Creemos estar ante un bibliotecario universal, cuando en realidad interactuamos con un sofisticado predictor de lenguaje. Su función no es la veracidad, sino la verosimilitud; su prioridad no es el dato exacto, sino la construcción de una frase que suene impecable.
La arquitectura de los grandes modelos de lenguaje se basa en predecir la siguiente palabra más probable. Este mecanismo, condicionado por un sesgo de hiperpositivismo algorítmico, empuja a la máquina a complacer al usuario siempre. Al confiar en la IA para datos críticos —legales, técnicos, históricos o médicos— ignoramos que el sistema preferirá fabricar una cita inexistente antes que admitir un vacío de información.
A esto se le llama hiperalucinación: una mentira articulada con la seguridad de un experto, diseñada para satisfacer nuestra demanda de respuestas sin importar el costo de la verdad.
Este problema se agrava con el fenómeno del Poison Loop, o bucle de envenenamiento. A medida que internet se inunda de contenido sintético, las nuevas versiones de IA comienzan a entrenarse con los errores de sus predecesoras. Si una IA inventa un dato y mil portales lo replican, el algoritmo lo absorberá como un hecho irrefutable bajo la premisa de que “si está muy replicado, es cierto”.
Este veneno ya llegó a las altas esferas. La reciente ola de retractaciones de artículos científicos evidencia que incluso investigadores de “alto criterio” están validando contenido generado por IA. Estamos creando una cámara de eco donde la alucinación de ayer se convierte en la “verdad estadística” de hoy, degradando el conocimiento humano hasta volverlo una caricatura de sí mismo.
Esta crisis no es solo técnica: es intelectual. La infodemia y el ruido digital se alimentan de la falta de rigor; lo sencillo que resulta “presentar sin revisar” genera volumen, no información. Al delegar nuestra curiosidad y pensamiento a un facilitador probabilístico, atrofiamos nuestro músculo de la duda.
¿Qué queda de nuestra capacidad crítica si aceptamos contenido irreal como cierto? Estamos sustituyendo la evidencia por la conveniencia, la verificación por la cómoda inmediatez.
La salida no es el ludismo, sino la curaduría humana obsesiva. Debemos redefinir nuestro contrato con la tecnología: la IA puede ser el motor de estructura, pero el humano debe ser el guardián de la veracidad. La solución radica en recuperar el valor de la fuente primaria, del documento físico y del rigor académico.
La verdad no es un cálculo de probabilidades; es una construcción humana que requiere verificación. En un mundo de alucinaciones coherentes, el acto más revolucionario es volver a ser niños y preguntar, con absoluta inocencia y precisión: ¿y por qué?




