Carlos Hornelas
carlos.hornelas@gmail.com
Las Inteligencias artificiales generativas se ponen de moda. Los partidarios del progreso, ven, en la tecnología en general, un motor de la democratización del conocimiento, una fuente de riqueza y confort ilimitados y por supuesto, una posibilidad de mayor desarrollo de la civilización en general.
Puede que todo eso sea cierto, con determinadas proporciones, pero de alguna manera se soslaya que cada cambio disruptivo plantea también efectos colaterales que es necesario considerar. Marshal McLuhan solía decir que el hombre produce herramientas para moldear la realidad, pero al cabo de un tiempo, las herramientas terminan moldeándolo a él mismo.
Es cierto que el ChatGPT está siendo usado por nuestros estudiantes quienes ven en la herramienta una opción para no dedicar ni tanto esfuerzo ni tanto tiempo a las tareas, las labores de investigación o el trabajo del pensamiento crítico. Eso no puede de ninguna forma considerarse bueno, adecuado, justo o ético, sin embargo, es asequible, está de moda, es gratuito y los libera de la carga de aprender.
Mientras nuestros dispositivos se hacen cada vez más inteligentes nos volvemos cada vez más idiotas. Con Google solíamos buscar en la casilla vacía la información que requerimos a través de palabras clave y podíamos obtener una lista de resultados que había que peinar para discriminar los útiles de los inútiles, los verdaderos de los falsos, los actualizados de los anacrónicos, es decir, había de hacer un esfuerzo mínimo por descartar la información recuperada.
Google ya planteaba un filtro y una reducción del mundo, pues de toda la información en la red, nosotros creemos fiel y devotamente que su algoritmo es infalible, objetivo, verdadero, certero y neutral. Cuando la verdad es que, el acomodo y jerarquización de la información es ya un filtro que prioriza ciertos resultados en detrimento de otros, a los que manda al final de la lista por razones que desconocemos: es un embudo que nos dirige hacia donde quiera, editando así la versión de la realidad que tenemos sobre cuánto le consultamos.
Con ChatGPT podemos preguntar usando las palabras y el lenguaje que usamos con cualquier conocido. No es necesario darle “palabras clave” ni preocuparnos por la sintaxis, lo cual hace que quien lo utiliza pueda desenvolverse en la consulta con mayor soltura, pero también mina su capacidad para abstraer los términos clave de la información o para expresarse adecuadamente.
Los resultados en ChatGPT son textos generados en forma de una respuesta única, sin listas ni prioridades (a menos que así se le solicite) lo cual deriva en un conformismo cognitivo si aquel que recupera la información del chat realmente piensa que es la única respuesta a su pregunta y gracias a ello no tiene que andar “perdiendo el tiempo” y descartando sitios de lista de Google, pues ya recibió la “única”, la “correcta” y la “adecuada”: todo en uno.
Al concederle razón a la respuesta del chatbot también le cede a la máquina las cualidades de un oráculo cuyo conocimiento es superior al del ser humano por la rapidez en la generación de la réplica: le advierte poderes sobrehumanos. Si la premisa de McLuhan es cierta, el hombre terminará por creer que “la respuesta” de la tecnología es la realidad, es decir pensará eventualmente que efectivamente las máquinas que ha creado son superiores a él.
Se promueve la idea de que el chatbot es inteligente por organizar unos datos en la red, por reproducir información existente: pero no produce nada nuevo. El aprendizaje es el procesamiento de información nueva y el conocimiento es su puesta en práctica, pero requiere esfuerzo, vínculo social y capacidad para procesarlo. Nos hemos comprado la idea que el conocimiento es reproducir la misma información, de un gran banco, de manera más rápida: ¡Qué idiotez!