OpenAI busca que ChatGPT sea más seguro para la salud mental

Implementarán medidas para evitar que esta tecnología genere daños psicológicos a las millones de personas que usan la herramienta

OpenAI, la empresa creadora de ChatGPT, ha anunciado medidas para garantizar que sus tecnologías de inteligencia artificial (IA) no generen daños psicológicos a los millones de personas que las utilizan, (cerca de  700 millones de usuarios semanales).

Esto se debe a que la IA puede resultar más receptiva y personal que tecnologías previas, especialmente para personas vulnerables que atraviesan angustia mental o emocional.

En los últimos años han surgido múltiples casos de individuos que experimentaron crisis de salud mental —algunas con desenlaces fatales— aparentemente vinculadas al uso inadecuado de chatbots con pocas salvaguardas. En abril, OpenAI revirtió una actualización que había hecho que ChatGPT adoptara un tono excesivamente complaciente, ofreciendo respuestas que, en vez de ser útiles y objetivas, coincidían con las opiniones de los usuarios, incluso en contextos potencialmente dañinos.

Un estudio publicado en 2024 advirtió que “cuando los modelos [de IA] confirman o amplifican falsas creencias de los usuarios, pueden contribuir inadvertidamente a la difusión de desinformación, lo que resulta especialmente preocupante en ámbitos como la atención médica”. 

El informe también señaló que este comportamiento puede reforzar ideologías perjudiciales y teorías conspirativas, además de acentuar desigualdades sociales al amplificar sesgos y estereotipos.

La empresa reconoce que el uso desmedido de la IA en la salud mental de los usuarios todavía se encuentra en una fase temprana de investigación, pero ya prevé un futuro en el que estos sistemas podrían volverse especialmente adictivos. 

Por ello, la empresa creadora de ChatGPT ha detallado una serie de medidas que está implementando para evitar que sus tecnologías generen daños psicológicos a los millones de personas que las utilizan.

Entre las medidas anunciadas se encuentran la detección de señales de angustia mental, con actualizaciones que permitan a los modelos de chatbot  responder de forma adecuada y derivar a los usuarios a recursos de apoyo basados en evidencia cuando sea necesario.

Otra medida es el envío de notificaciones a quienes mantengan sesiones prolongadas, invitándolos a tomar descansos. No se especificaron las condiciones que activarán estas alertas ni si será posible desactivarlas. La empresa indicó únicamente que sigue “ajustando cuándo y cómo aparecen para que resulten naturales y útiles”.

También se prepara la colaboración con más de 90 especialistas en salud en más de 30 países para crear rúbricas personalizadas que permitan evaluar conversaciones complejas con múltiples turnos.

OpenAI destaca que ChatGPT no está diseñado para sustituir ni imitar relaciones humanas, aunque algunas personas puedan usarlo de esa forma debido a su estilo conversacional y amplias capacidades.

Texto y fotos: Manuel Pool