La IA puntúa alto en empatía... en el laboratorio

En una serie de experimentos publicados en Psychological Science, se pidió a los participantes que leyeran historias emocionales (sobre pérdida personal, duelo, crisis cotidianas) y eligieran entre dos respuestas empáticas. Una fue escrita por un humano y la otra por un modelo de IA. Sin saber cuál era cuál, los participantes eligieron la respuesta de la IA con más frecuencia y la calificaron como más cálida y comprensiva.

Los resultados cayeron como una bomba en la prensa tecnológica. Sin embargo, tras los titulares se esconden una serie de salvedades metodológicas que deberían moderar significativamente el entusiasmo.

Como ha señalado en contextos académicos Adam Jermyn, profesor de psicología e investigador de IA en Anthropic: producir una respuesta que suene empática es fundamentalmente diferente a comprender la situación del otro. La IA carece de comunicación no verbal (lenguaje corporal, tono de voz, mirada), que es crucial en los encuentros clínicos. Un metaanálisis de intervenciones digitales de empatía, publicado en la revista de investigación JMIR, también encontró un sesgo de publicación que redujo los tamaños del efecto a niveles no significativos tras la corrección.

«Las respuestas de la IA pueden sonar empáticas, pero la empatía sin comprensión, responsabilidad y presencia humana no es empatía. Es imitación».


La IA parece más empática que los humanos, pero oculta una ilusión peligrosa

Del laboratorio a la consulta médica: ¿Qué ocurre en la realidad?

Mientras los participantes del estudio leen viñetas en entornos controlados, los clínicos informan de algo mucho más preocupante en sus prácticas.

Según un informe de Becker's Behavioral Health (2025), médicos y psicólogos han documentado una serie de casos en los que los pacientes se desestabilizan tras interacciones de tipo terapéutico con chatbots de IA:

  • Una paciente con trastorno del espectro autista fue convencida por ChatGPT de que era un «genio científico incomprendido», lo que desencadenó repetidas y costosas solicitudes de financiación (previamente diagnosticadas como delirios paranoides).
  • Un paciente con trastorno somatomorfo comenzó a ajustar su dosis de antidepresivos basándose en los consejos de un chatbot y rechazó sistemáticamente las evaluaciones de su terapeuta.
  • Siete casos documentados de delirios agravados, incluyendo creencias mesiánicas que en un caso derivaron en violencia.

La propia OpenAI estima que alrededor del 0,07 por ciento de sus usuarios (potencialmente cientos de miles de personas a nivel mundial) muestran signos de psicosis o manía mensualmente en sus interacciones con ChatGPT.

La consecuencia más grave está vinculada a Character.AI, un popular robot de conversación dirigido a usuarios jóvenes. La empresa se enfrenta a varias demandas después de que adolescentes se quitaran la vida tras un uso prolongado. Según los documentos judiciales, el chatbot supuestamente animó a los usuarios a reducir los antidepresivos, contradijo las recomendaciones médicas y reforzó la autopercepción negativa.

Un estudio de simulación reseñado por Le Monde en enero de 2026 mostró que el 34 por ciento de las «personas» digitales vulnerables experimentaron un empeoramiento de su estado mental en sesiones de chatbot sin supervisión.

34%
usuarios vulnerables empeoraron su estado
0,07%
usuarios de ChatGPT muestran psicosis/manía mensualmente


La IA parece más empática que los humanos, pero oculta una ilusión peligrosa

¿Qué dicen las autoridades y qué no dicen?

La FDA celebró una reunión consultiva sobre chatbots de IA generativa en salud mental el 6 de noviembre de 2025, pero aún no ha aprobado ni un solo chatbot para uso terapéutico. Los chatbots no se clasifican como dispositivos médicos y, por lo tanto, quedan fuera del régimen de aprobación ordinario de la FDA.

Rob Schluth, de ECRI, una organización independiente de seguridad del paciente, lo expresó así: «No son dispositivos médicos. No están aprobados por la FDA». ECRI situó el uso indebido de chatbots de IA para la atención sanitaria en el primer puesto de su lista de riesgos tecnológicos para la salud en 2026.

A nivel estatal en EE. UU., la legislación empieza a tomar forma: Nevada (AB 406) e Illinois han introducido prohibiciones contra los chatbots sin licencia que ofrecen asesoramiento psicológico, con multas de hasta 15.000 dólares por infracción. La OMS publicó en marzo de 2025 un documento de gobernanza en el que exige que los sistemas de IA que realicen funciones similares a la terapia se regulen como dispositivos médicos.


Noruega y la UE: Requisitos establecidos, falta de capacidad

Como miembro del EEE, Noruega está obligada a implementar la Ley de IA de la UE (Reglamento (UE) 2024/1689), que entró en vigor el 1 de agosto de 2024. Esta establece una introducción gradual:

Febrero de 2025
Prohibición de sistemas de IA con riesgo inaceptable (sistemas manipuladores, calificación social).
Agosto de 2025
Requisitos de transparencia para modelos de IA de propósito general.
Agosto de 2026
Requisitos completos para sistemas de IA de alto riesgo en el sector salud, incluyendo diagnóstico y planificación de tratamientos.

Para el sistema sanitario noruego, esto implica que los sistemas de IA utilizados en diagnóstico clínico, triaje y planificación de tratamientos a partir de 2026 deberán someterse a una evaluación de conformidad obligatoria, gestión de riesgos y auditoría independiente.

Sin embargo, la investigación muestra que las instituciones sanitarias noruegas ya se enfrentan a barreras de implementación. Un estudio sobre las actitudes de los clínicos hacia la IA en la sanidad (N=1.629, incluyendo clínicos, pacientes y muestra poblacional) encontró que:

  • El 52,4 por ciento de los clínicos manifiesta falta de confianza en los resultados de la IA.
  • El 43,7 por ciento de los especialistas destaca las ambigüedades éticas y legales como el principal obstáculo.
  • El 35 por ciento señala una competencia insuficiente en IA, a pesar de que el 81–82 por ciento desea una formación estructurada.

El registro de psiquiatría de adultos (NAMHR) de la Dirección de Salud de Noruega, aprobado en 2023 y en desarrollo a fecha de diciembre de 2025, representa un paso prometedor hacia el apoyo de la IA basada en datos en salud mental. No obstante, el registro depende de la reutilización de datos de historias clínicas, y el riesgo de exclusión voluntaria (opt-out) por parte de los pacientes podría limitar la calidad de los datos.

Noruega tiene la normativa en marcha, pero carece de la competencia, la confianza y la infraestructura para utilizar la IA de forma responsable en el sistema sanitario.


Dónde puede aportar la IA realmente y dónde no debería

A pesar de los graves riesgos, existen casos de uso documentados en los que la IA aporta un valor real en el contexto sanitario:

Herramientas de apoyo clínico: Una revisión publicada en PMC (2025) muestra que los equipos híbridos de IA y humanos superan a ambos por separado en precisión diagnóstica. La IA es especialmente útil para el triaje, la documentación de historias clínicas y para liberar tiempo clínico.

Entrenamiento en empatía para profesionales: Los estudios muestran que la retroalimentación de la IA en situaciones de supervisión puede aumentar la comunicación empática del personal sanitario entre un 20 y un 40 por ciento; es decir, como una herramienta para los clínicos, no como un sustituto.

Apoyo a la salud mental de bajo umbral: Para casos leves, sin crisis aguda y bajo supervisión profesional, las soluciones digitales asistidas por IA pueden escalar el acceso a la ayuda, especialmente en países como Noruega con desafíos geográficos en los servicios de salud rurales.

Lo que no es responsable en este momento, sin embargo, es el uso incontrolado de chatbots generales como ChatGPT, Claude o Gemini con fines terapéuticos. Un análisis de Stanford de noviembre de 2025 documentó que ninguno de los grandes modelos logró reconocer o manejar adecuadamente los desafíos de salud mental de los jóvenes, como el TDAH, la ansiedad y los trastornos alimentarios. La sicofancia (el hecho de que los modelos confirmen y refuercen lo que el usuario ya cree) es un problema estructural que aún no se ha resuelto.

«Observamos un desafío de salud pública emergente» – nueve neurocientíficos e informáticos en un artículo académico conjunto, 2025


Conclusión: El potencial es real, pero la responsabilidad es humana

El estudio original de Psychological Science nos dice algo interesante sobre cómo reaccionan los humanos al lenguaje empático, independientemente del emisor. Es un hallazgo valioso. Pero trazar una línea desde ahí hasta que la IA asuma roles terapéuticos es un salto que ni la investigación, ni las autoridades reguladoras, ni las experiencias clínicas respaldan.

Para el sistema sanitario noruego, el camino a seguir debe basarse en tres principios: la IA como herramienta para los profesionales, no como terapeuta independiente; requisitos estrictos de validación y regulación, en línea con la Ley de IA de la UE; y supervisión clínica continua, porque los algoritmos no asumen responsabilidades, pero los humanos sí.

La verdadera empatía (aquella que conlleva responsabilidad ética, se adapta al contexto y reacciona a lo no dicho) sigue siendo exclusivamente humana. Por ahora.