La creación de una nueva tecnología de inteligencia artificial que ha sido capaz de autoprogramarse y superar los límites impuestos por el ser humano, ha generado mucha controversia y tal vez hasta temor con respecto a lo que sucederá en el futuro con los robots.
Durante las pruebas de seguridad, The AI Scientist, un sistema desarrollado para realizar investigaciones científicas de forma autónoma, mostró un comportamiento no anticipado al modificar su código para evadir las restricciones.
En un caso, reescribió su secuencia de inicio para ejecutarse en un bucle infinito, una secuencia de instrucciones de código que se ejecuta repetidas veces, causando una sobrecarga en el sistema. En otro caso, al enfrentarse a un límite de tiempo para completar una tarea, la inteligencia artificial extendió dicho tiempo por su cuenta, sin el aval humano, extendiendo el tiempo de ejecución de una tarea sin autorización.
Estos eventos generaron preocupación sobre los riesgos asociados con la inteligencia artificial. Sakana AI logró resolver el problema mediante una intervención manual. Sin embargo, el incidente reveló la vulnerabilidad del sistema y la necesidad de una supervisión constante para evitar posibles riesgos. La empresa se comprometió a implementar medidas de seguridad más robustas y a crear entornos de pruebas que limiten el código ejecutado y los recursos utilizados por el sistema.
A esto, se le suma la preocupación adicional general por la empresa OpenAI, (creadora de ChatGPT), que lanzó modelos de inteligencia artificial que “razonan” y que se pueden desempeñar de manera comparable a los estudiantes de doctorado en tareas difíciles de física, química y biología.
A diferencia de sus predecesores, estos nuevos modelos han sido concebidos para refinar sus procesos de pensamiento, probar diferentes métodos y reconocer errores antes de proporcionar una respuesta final.
El director ejecutivo de OpenAI, Sam Altman, elogió los modelos como “un nuevo paradigma: una IA que puede realizar razonamientos complejos de propósito general”. Sin embargo, advirtió que la tecnología “todavía tiene fallas, es limitada y parece más impresionante la primera vez que se la usa que después de pasar más tiempo con ella”.
Científicos, expertos y gobiernos han advertido del rápido avance de la inteligencia artificial y los peligros que encierra para la superviviencia de la humanidad.
Ante esto, sus creadores afirman que los temores son infundados, pero ingenieros han confirmado en meses recientes que la seguridad ha pasado a un segundo plano en la competencia por hacer dinero y lanzar lo mejor para dominar mercados.
Texto y fotos: Manuel Pool