CARLOS HORNELAS
carlos.hornelas@gmail.com
En los años precedentes el entusiasmo por la Inteligencia Artificial (IA) ha significado un objeto de admiración, cuando no de veneración, por parte de quienes piensan que la tecnología es el pináculo de la civilización. Los más optimistas siempre quieren ver en la tecnología un signo del progreso y de los “avances” de la humanidad sin reparar en una visión crítica sobre su implementación.
Paul Virilio, teórico de la relación entre la tecnología y la humanidad nos recuerda que cada avance tecnológico viene con su respectiva catástrofe. Cada tecnología soslaya un lado que puede resultar riesgoso para la humanidad en su conjunto.
Estamos experimentando los primeros efectos del uso indiscriminado de la IA en diversos contextos. En Japón, por ejemplo, el partido “Camino al Renacimiento” busca designar a una Inteligencia Artificial como líder, se trata de un pingüino chatbot que servirá de mediador en los asuntos de asignación de recursos, logística y distribución para su operación. Esta organización política quedó en segundo lugar en las últimas elecciones para la alcaldía de Tokyo, a través de una intensa actividad en la red, sin embargo, no obtuvo ningún escaño que le diera presencia en la agenda legislativa.
Tras el tropiezo, la idea es incorporar al pingüino para procesar información que ayude a la toma de decisiones más precisa, de acuerdo con Koki Okumura, actual representante del partido y doctorante en IA, de 25 años de edad, de la universidad de Kyoto. Como la legislación nipona establece que los puestos de elección popular tienen que ser desempeñados por humanos, Okumura dice que estará al frente del partido, aunque solo para dichos efectos, pues piensa auxiliarse del pingüino para procesar las propuestas de políticas públicas más adecuadas independientemente de su plataforma política. Será, supuestamente, neutro, imparcial, objetivo y sin emociones ni sesgos humanos.
La semana pasada en Albania, el presidente Eddi Rama, quien ha resultado un entusiasta ferviente de la tecnología, decidió, como él lo dio a conocer, incorporar a su gabinete a una “ministra digital” a quien llamó Diella, se trata de un agente de Inteligencia Artificial que supuestamente auxiliará en la toma de decisiones concernientes a las licitaciones y contrataciones de proveedores al Estado, para evitar la corrupción y hacer más transparentes las operaciones de los servicios públicos brindados por la administración en turno.
Diella no tiene ni filiación política ni conflictos de intereses, lo cual disminuirá los índices de corrupción, automatizará el proceso y optimizará la manera de tomar las decisiones, según se dice por parte del presidente.
En ambos casos, se parte de una premisa que podemos calificar como de ingenua, pues en realidad no se publica cuál es el proceso y los datos que se toman en cuenta para obtener los resultados. ¿De dónde viene la información con la cual trabajarán los bots?, ¿Cuáles son los parámetros, las variables y ponderaciones que califica para obtener sus resultados? ¿Qué tipo de algoritmos utiliza para realizar sus cálculos? ¿Cómo sabemos que en realidad no existe sesgo alguno cuando computa sus resultados? ¿Cómo saber que no se inclina a favor del Estado y su partido?
En un estudio elaborado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse, al que la revista Wired le dedica un interesante artículo, se revela que los humanos “tienden a ser más deshonestos cuando delegan sus decisiones a la IA” porque se crea una “distancia moral” que desvincula a las personas de sus decisiones, de modo que incurren en comportamientos cuestionables por las ventajas y ganancias que la IA les puede facilitar. A veces el camino más “fácil” es el que finalmente es el más mezquino.




