En la actualidad, millones de personas recurren a los Chatbots para solicitar un consejo médico, pero ¿hasta qué punto son seguros y precisos estos chatbots para analizar datos y problemas de salud? ¿Y conviene realmente fiarse de ellos? Estas son algunas cuestiones a tener en cuenta antes de hablar con un chatbot sobre su salud.
Es importante tener en cuenta que, si bien, esta opción puede ser de gran ayuda en lugares donde conseguir cita con el médico puede tardar semanas y donde las esperas en urgencias son de varias horas, las plataformas de inteligencia artifical no son perfectas, y a veces pueden dar malos consejos y hasta ofrecer respuestas alejadas de la realidad, pero la información que generan suele estar más personalizada y ser más específica que la que los pacientes encuentran en una búsqueda en un naveagador como Google.
“La alternativa a menudo es no tener nada, o que el paciente vaya improvisando”, afirmó el doctor Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Así que creo que si se utilizan estas herramientas con responsabilidad se puede obtener información útil”.
En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar las historias clínicas de los usuarios, los datos de aplicaciones de bienestar y de dispositivos portátiles para responder a dudas de salud y médicas. Además, actualmente existe una lista de espera para acceder al programa. Anthropic, una empresa de IA rival, que ofrece funciones similares a algunos usuarios de su chatbot Claude.
Ambas empresas aseguran que sus programas, conocidos como modelos de lenguaje de gran tamaño, no sustituyen la atención profesional y no deben utilizarse para diagnosticar enfermedades. En su lugar, señalan que los chatbots pueden resumir y explicar resultados de pruebas complejas, ayudar a preparar una visita al médico o analizar tendencias de salud importantes que pasan desapercibidas entre historiales médicos y métricas de aplicaciones.
Una ventaja de los chatbots más recientes es que responden a las preguntas de los usuarios utilizando el contexto de su historial médico, incluidas las recetas, la edad y las notas del médico.
Aunque no se haya dado a la IA acceso a la información médica, Wachter y otros recomiendan proporcionar a los chatbots el mayor número posible de detalles para mejorar las respuestas.
Síntomas preocupantes
Wachter y otros insisten en que hay situaciones en las que se debe prescindir del chatbot y buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o un fuerte dolor de cabeza pueden indicar una urgencia médica.
Incluso en situaciones menos urgentes, pacientes y médicos deben acercarse a los programas de IA con “cierto escepticismo saludable”, señaló el doctor Lloyd Minor, de la Universidad de Stanford.
“Si se trata de una decisión médica importante, o incluso de una decisión menor sobre su salud, nunca debería basarse solo en lo que le ofrece un modelo de lenguaje de gran tamaño”, advirtió Minor, que es el decano de la facultad de Medicina de Stanford.
Incluso en casos menos complejos o frecuentes, como el síndrome de ovario poliquístico (SOP), puede ser mejor consultar con un profesional real debido a lo variable que puede ser esta afección en cada persona, lo que influirá en el plan de tratamiento.
Datos a destacar
Las plataformas de IA no son perfectas, y a veces pueden dar malos consejos y hasta ofrecer respuestas alejadas de la realidad.
Hay situaciones en las que se debe prescindir del chatbot y buscar atención médica inmediata. Sobre todo al presentar síntomas como dificultad para respirar, dolor en el pecho o fuerte dolor de cabeza.
Texto y fotos: Manuel Pool



