Carlos Hornelas
carlos.hornelas@gmail.com
El año pasado vivimos los primeros impactos de la Inteligencia Artificial (IA) en nuestra vida cotidiana, a partir del lanzamiento del ChatGPT. En unos meses, el uso de esta nueva herramienta puesta a la mano de cualquiera, cambió el modo de pensar acerca de la información, nos acercó a las predicciones que pensábamos lejanas.
La IA dejó de ser una cuestión del futuro inexorable y se convirtió en un tema recurrente en la agenda de los medios de comunicación, del imaginario social y en el mercado. Desde hace un año vivimos todo tipo de especulaciones acerca de sus límites y alcances.
Desde la llegada de Internet a la escena, no se había sentido tanto entusiasmo a partir de un dispositivo tan asequible y actual como ChatGPT, que resultó apenas la punta de lanza de otros más, también de Inteligencia Artificial Generativa que son capaces de producir no solo texto sino imágenes, audio, video, elementos de programación y en general todo lo que pueda suponer el uso de la información digital.
Pero la irrupción de la IA en el mundo actual ha representado no solo la cara del progreso tecnológico, sino también de nuestra fragilidad, si se considera que el mundo digital y la realidad en la que nos ubicamos se encuentran cada vez más engarzados, dependientes.
El 2024 podría ser el año en el cual se inicie la alfabetidad digital que tanto nos hace falta. Usamos la tecnología, le sacamos provecho, dependemos de ella, pero no sabemos cómo funciona, a qué riesgos nos exponemos, cómo podemos prepararnos para los cambios que supone en el mediano y corto plazo.
A estas alturas todo el mundo habrá usado alguna herramienta de inteligencia artificial en su vida, no obstante, ¿tendrá los conocimientos necesarios de ciberseguridad para moverse con soltura en este nuevo entorno digital?
A partir del vertiginoso desarrollo de la IA en 2023 los ciberataques se han sofisticado y se han multiplicado. El crimen no duerme y gracias a la IA ha robustecido sus capacidades y variedad de recursos para diversificar sus actividades ilegales.
Desde la creación de contenido falso (fake news), hasta el secuestro virtual de equipos de cómputo (ransomware), la IA ha posibilitado el crecimiento en escala de las estafas a través de publicidad que parece auténtica, como el caso de los Deepfakes que pueden emular la voz y la imagen de líderes de opinión, políticos y celebridades para tratar de convencer a quienes no pueden discernir sobre su autenticidad y lograr su cometido.
Las extorsiones a través del teléfono, que pueden emular la voz de un familiar o amigo, han sido una de las consecuencias de la facilidad de uso de las herramientas de Inteligencia Artificial Generativa.
Con la IA, la delincuencia organizada ha focalizado y sistematizado la búsqueda de vulnerabilidades de cualquier sistema digital con mayor facilidad y ha logrado comprometer la seguridad de diversas instituciones a nivel mundial.
Asimismo, la privacidad y los datos personales en redes sociales, y en general en cada repositorio, sea comercial o estatal, están más al alcance de hackers quienes pueden construir de manera sencilla, y de la mano de la IA, dispositivos para hacerse con esta información en detrimento de las personas. En la actualidad Google nos conoce mejor que nuestra propia madre: sabe dónde estamos, cuando, a qué hora dormimos, cuál es nuestro pulso, cuántos pasos damos al día… y esto es oro molido para la delincuencia.
Ahora bien, la IA no es una inteligencia autónoma que tenga la capacidad de pensar por sí misma ni tampoco de resolver cuestiones éticas. Cualquier algoritmo en el que base su programación puede ser alterado de manera inapropiada para efectos no consentidos. Un ladrón no necesitará de una ganzúa para abrir una casa o una tienda: podrá manipular los sistemas. Por ello es indispensable que nos formemos en materia de ciberseguridad: el entorno nos lo demanda como una habilidad de supervivencia.