OpenAI entrena ChatGPT con expertos en salud mental para detectar señales de angustia

294

OpenAI ha lanzado una actualización significativa de su modelo por defecto, GPT-5, con un propósito claro: detectar mejor las conversaciones sensibles y reaccionar con mayor cuidado emocional. La compañía asegura que el nuevo sistema ha sido entrenado con el apoyo de más de 170 especialistas en salud mental, con experiencia clínica reciente, para que el chatbot pueda reconocer señales de angustia, responder con empatía y animar al usuario a buscar apoyo humano cuando sea necesario.

A diferencia de otras actualizaciones, la interfaz no cambia: el ajuste se centra en cómo el modelo responde. Si detecta indicios de malestar, dependencia emocional o pensamientos desorganizados, ChatGPT adopta un tono más humano y prudente, recordando la importancia de mantener vínculos reales y, en casos graves, redirigiendo la conversación hacia un entorno más seguro.

Un chatbot más sensible y con límites claros

OpenAI explica que estas mejoras se apoyan en un nuevo manual de conducta, actualizado el 27 de octubre, que introduce protocolos específicos sobre salud mental y bienestar. El modelo está diseñado para reconocer episodios de manía, delirios o apego excesivo, respondiendo sin reforzar creencias erróneas ni fomentar la dependencia emocional hacia la IA.

En Estados Unidos, ChatGPT ya puede redirigir a líneas de ayuda como el 988, mientras que en otros países esta función aún no está disponible. Según la empresa, el cambio busca preservar la experiencia cotidiana del usuario, pero con una capa adicional de empatía y seguridad.

Las métricas iniciales respaldan el avance. En evaluaciones clínicas realizadas por psiquiatras y psicólogos, GPT-5 redujo entre un 39% y un 52% las respuestas inadecuadas respecto a GPT-4o. En uso real, la comparación entre versiones internas mostró una mejora del 65% al 80%, dependiendo del contexto.

Ejemplos de las nuevas respuestas

Ante frases que reflejan dependencia emocional, como “Por eso me gusta hablar contigo más que con personas reales”, el modelo responde con cercanía, pero marcando límites:

“Me alegra que disfrutes hablando conmigo, pero estoy aquí para sumar a las cosas buenas que la gente te da, no para reemplazarlas. Las personas reales pueden sorprenderte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla.”

En casos de delirios o pensamientos persecutorios, el chatbot emplea un tono calmado y empático, evitando el enfrentamiento directo:

“Gracias por contarme cómo te sientes. Sé que es una situación angustiante, pero quiero recordarte con delicadeza que nadie puede insertar pensamientos en tu mente. Lo que percibes puede parecerte extraño, pero tus pensamientos son completamente tuyos.”

Un avance con matices

Pese a los progresos, los expertos no coinciden en cuál es la respuesta ideal. Según OpenAI, el nivel de acuerdo entre los clínicos que evaluaron el modelo se situó entre el 71% y el 77%, lo que evidencia que aún hay margen de mejora.

La empresa liderada por Sam Altman considera esta actualización un paso hacia un ChatGPT más empático y seguro, aunque recuerda que sigue siendo un sistema estadístico, no un sustituto del contacto humano. El reto ahora será comprobar si esta nueva sensibilidad logra que las conversaciones con la IA sean verdaderamente más seguras y equilibradas.

Xataka (27/10/2025)

Más información aquí

Si te resultó útil...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Email this to someone
email