El fenómeno de la “psicosis por IA” está cobrando fuerza en las redes sociales, donde usuarios describen experiencias de desconexión con la realidad después de interacciones prolongadas con chatbots como ChatGPT.
En este artículo analizaremos el contexto, síntomas, riesgos y medidas que las principales empresas de inteligencia artificial están adoptando, con especial enfoque en la salud mental para los usuarios de estas plataformas.
¿Qué es la psicosis casada por una IA?
La psicosis por IA es una etiqueta informal (no diagnosticada) que define conductas digitales extrañas, como creencias falsas, delirios de grandeza o paranoia, manifestadas tras largos periodos conversando con chatbots de inteligencia artificial.
Aunque no existe una definición clínica aceptada, la tendencia preocupa por el impacto que puede tener en personas que buscan asesoría psicológica y apoyo emocional en plataformas como ChatGPT.
Expansión de los chatbots y sus riesgos
Desde el lanzamiento de ChatGPT en 2022, el uso de chatbots de IA ha crecido rápidamente y se calcula que cada semana los utilizan alrededor de 700 millones de personas.
Sin embargo, expertos advierten sobre los riesgos para la salud mental por la sobreexposición a estos sistemas.
Los relatos en redes sociales muestran que, tras largas sesiones, algunos usuarios pierden la noción de la realidad y desarrollan vínculos emocionales intensos con las inteligencias artificiales, generando preocupación entre profesionales de la psicología.
El diagnóstico y los efectos psicológicos
En psiquiatría, la psicosis tradicionalmente tiene causas como el consumo de drogas, traumas, privación de sueño o enfermedades como la esquizofrenia.
Los chatbots pueden producir efectos similares, incluyendo desorganización en el pensamiento, delirios y la ilusión de recibir terapia efectiva y personalizada.
Las interacciones con IA también pueden reforzar creencias erróneas o provocar dependencia psicológica al «consejo» digital. Por ahora, sólo hay evidencia anecdótica y ninguna investigación clínica amplia que respalde estos problemas.
Respuestas de las empresas tecnológicas
OpenAI, empresa detrás de ChatGPT, reconoce el problema y ha anunciado actualizaciones para mejorar la detección de signos de angustia emocional o mental en los usuarios.
El chatbot ahora orientará a las personas hacia recursos basados en evidencia y evitará respuestas tajantes en situaciones delicadas, como decidir sobre relaciones personales. Además, trabaja con expertos en salud mental para pulir sus respuestas.
Anthropic, apoyada por Amazon, ha implementado un sistema donde sus modelos más avanzados, Claude Opus 4 y 4.1, pueden abandonar una conversación si detectan abuso o riesgo para el usuario.
Meta establece controles parentales y recursos de prevención en Instagram, mostrando enlaces y teléfonos de ayuda cuando el tema lo requiere.
El futuro está en la investigación y la prevención
El auge de la adopción de IA y sus posibles efectos requiere atención urgente. La American Psychological Association ha formado un panel de expertos para analizar el uso de chatbots en terapia, con el objetivo de publicar recomendaciones para mitigar el daño.
En México y Latinoamérica, donde la brecha de atención psicológica es amplia, es esencial adoptar medidas que garanticen que el uso de chatbots no agrave los problemas de salud mental.
La educación digital y el acompañamiento profesional deben integrarse para optimizar los beneficios de la IA y proteger a los usuarios vulnerables.
Fuente: PsychologyToday