CARLOS HORNELAS
carlos.hornelas@gmail.com
En un artículo anterior, he recomendado la lectura de Byung Chul Han y su crítica acérrima a la sociedad orientada hacia el rendimiento y la productividad, por la sencilla razón de que está compuesta de personas de carne y hueso y no de engranes intercambiables que son parte de una máquina sin alma.
He conversado con algunos colegas y me queda el escozor en la herida abierta de la duda, que espero nunca cierre, sobre la forma en la que concebimos tanto el conocimiento como el aprendizaje, al menos en la generalidad.
Con la llegada de la llamada Inteligencia Artificial, se ha provocado una suerte de endiosamiento de sus capacidades y alcances, al grado tal que hay quien asegura que ya ha rebasado la “inteligencia humana”, y con ello, aquello que puedan entender por esto.
Me parece que parte del problema radica en que hay una especie de idea o mito que gira alrededor de que el conocimiento es una especie de gema que puede asirse y en ese sentido, poseerse, explotarse, acumularse e invertirse para obtener nuevos rendimientos.
Me explico. La idea radica en que todo problema o cuestionamiento tiene una forma única de ser respondido o resuelto, como si se tratara de un rompecabezas con cada una de sus piezas completamente definidas y conectadas en un universo autocontenido con una única e invariable composición que se revelará hacia el fin de la tarea y así obtener un rendimiento.
Por ejemplo, hay quienes piensan que investigar o conocer o aprender es tan simple como hacer una consulta a una caja negra, llámese Google o ChatGPT y que el resultado obtenido será, indiscutiblemente, una proeza de una máquina que opera sin la intervención humana y que le supera en capacidad, procesamiento, rapidez, criterio, eficacia, pertinencia, neutralidad y certeza.
Esto es lo verdaderamente penoso y decepcionante. ¿En realidad existe solo una respuesta exclusiva para cada interrogante?
He visto alumnos desconcertados al presentar sus tareas cuando se les señalan errores, malas interpretaciones o sesgos en los resultados obtenidos con inteligencia artificial. No es que el humano sea infalible pero lo que conmueve es que crean que la consulta de algunos términos o incluso de sesiones de feedback con un agente de IA pueden ser elementos de refinamiento y ajuste para obtener, a fin de cuentas “la respuesta”.
A mi generación le tocó el en el cual en lugar de ir a entrevistar al experto y buscar en la biblioteca, la hemeroteca o buscar diversidad de fuentes y tratar de contrastarlas, Google reducía el problema. De todo el universo de respuestas posibles me da una lista que resulta ser, en última instancia, una reducción del universo y una criba hecha por alguien cuya metodología desconocemos y adoptamos como nuestro credo confesional del ser digital.
Peor es con ChatGPT, puesto que no me da opciones para que explore, sino que simplifica todavía y me muestra en lenguaje natural, la “respuesta” que espero. Ya no estamos dispuestos a construir nuestro aprendizaje o robustecer nuestro criterio, sino a adoptar como dogma la revelación y santa palabra de una máquina con sesgos humanos que prefiero ignorar o soslayar.
El verdadero saber no es encontrar la solución de nada, sino el arte de formular preguntas e interrogantes que cuestionan todo cuanto damos por sabido y hasta ahora las máquinas no se preguntan, solo buscan entre lo que hemos construido, desde nuestras más profundas ignorancias de este universo infinito.