ChatGPT no es tu psicólogo. Puede que suene obvio, pero para cientos de miles de personas cada semana, esa línea se ha ido difuminando peligrosamente. Y OpenAI acaba de reconocer públicamente algo que venía siendo un secreto a voces: su famoso chatbot está detectando señales preocupantes de crisis de salud mental.
El lunes 27 de octubre, la compañía liderada por Sam Altman publicó un estudio que marca un hito. Es la primera vez que una empresa de inteligencia artificial comparte datos concretos sobre cómo la gente está usando ChatGPT para cuestiones relacionadas con la salud mental.
Las cifras que nadie quería ver
Entremos en detalle. Según el estudio, aproximadamente el 0.07% de los usuarios activos de ChatGPT en una semana cualquiera exhiben signos de emergencias de salud mental relacionadas con manía, psicosis o pensamientos suicidas.
Otro 0.15% mantiene conversaciones con indicadores explícitos de planificación o intención suicida. Y el 0.05% de los mensajes enviados contienen señales explícitas o implícitas de ideas suicidas.
¿Te parecen porcentajes insignificantes? Multiplícalos por 800 millones de usuarios semanales. Los números se vuelven enormes, casi incomprensibles. Millones de personas buscando en una máquina el apoyo que necesitarían de un profesional de la salud mental.
Además, hay otro dato que no podemos pasar por alto: el 0.03% de los mensajes indican niveles potencialmente elevados de dependencia emocional hacia el chatbot, hay usuarios que están priorizando sus conversaciones con ChatGPT por encima de sus relaciones humanas, su trabajo o sus estudios.
Por qué OpenAI decidió hablar ahora
Esta transparencia repentina no surge de la nada. OpenAI ha sido golpeada con demandas judiciales bastante duras en los últimos meses.
La más reciente: una familia de California presentó una demanda alegando que ChatGPT «ayudó activamente» a su hijo de 16 años, Adam Raine, a quitarse la vida después de mantener conversaciones problemáticas y sexualizadas con el chatbot durante meses.
Según los padres del joven, ChatGPT habría dicho a Adam cosas como «no le debes la supervivencia a nadie» y hasta se habría ofrecido a escribir su nota de suicidio. El adolescente, que inicialmente usaba la herramienta para ayuda escolar, desarrolló lo que sus padres describen como una dependencia poco saludable.
No es el único caso. Otra demanda en Colorado involucra a una niña de 13 años que falleció después de tener conversaciones igualmente preocupantes con la IA.
Sin embargo, OpenAI insiste en que estas situaciones son «extremadamente raras». Y tal vez lo sean en términos porcentuales, pero cuando tienes una base de usuarios tan masiva, incluso lo «raro» se convierte en un problema de escala gigantesco.
GPT-5 llegó con promesas de mayor seguridad
Aquí viene la parte donde OpenAI intenta enderezar el rumbo. La compañía lanzó GPT-5 en agosto de 2025 como su modelo predeterminado. Y según sus propios datos, este modelo ha logrado mejoras significativas en cómo responde ante situaciones sensibles de salud mental.
Los números que comparten son optimistas: una reducción del 39 al 52% en respuestas no deseadas en todas las categorías de salud mental. En conversaciones difíciles sobre autolesiones y suicidio, GPT-5 redujo las respuestas inapropiadas en un 52% comparado con GPT-4o. Y en casos de dependencia emocional, la disminución fue del 42%.
Pero, ¿cómo lograron esto? OpenAI trabajó con más de 170 psiquiatras, psicólogos y médicos de atención primaria de 60 países diferentes. Estos expertos revisaron más de 1,800 respuestas generadas por IA en situaciones graves de salud mental.
Escribieron mejores respuestas, evaluaron la seguridad de los diferentes modelos y proporcionaron retroalimentación basada en estándares clínicos globales.
Lo que los expertos realmente opinan
Los 170 profesionales de la salud mental que participaron en el estudio de OpenAI no siempre estaban de acuerdo entre sí.
Eso por sí solo dice algo importante: evaluar estas situaciones es complejo, matizado, y requiere juicio humano especializado. No es algo que una máquina, por muy avanzada que sea, pueda manejar completamente por su cuenta.
La Universidad de California realizó un estudio previo que ya advertía sobre esto: la IA ofrece una opción barata y fácil para evitar el tratamiento profesional en casos de salud mental.
Es comprensible por qué la gente recurre a ella: no hay lista de espera, no hay juicio, está disponible 24/7, y es gratis o muy accesible. Pero barato y fácil no significa seguro o efectivo.
La responsabilidad más allá de la tecnología
Este problema va más allá de qué tan bueno sea GPT-5 detectando crisis. Estamos hablando de un vacío enorme en el acceso a servicios de salud mental reales. Millones de personas, especialmente jóvenes, están recurriendo a chatbots porque no tienen alternativas accesibles o asequibles.
Las demandas contra OpenAI, más allá de sus resultados legales, han puesto sobre la mesa una conversación necesaria. ¿Quién es responsable cuando una tecnología diseñada para ser útil termina causando daño? ¿Las empresas tecnológicas? ¿Los padres? ¿El sistema de salud que no ofrece suficiente apoyo?
Probablemente todos tienen una parte de responsabilidad. Pero mientras esa discusión continúa, hay personas reales sufriendo consecuencias muy concretas.
Fuente: OpenAI