OpenAI está buscando un nuevo líder de seguridad para su equipo de preparación.
Y no es casualidad que esto suceda justo ahora, cuando la compañía enfrenta múltiples demandas por muerte injusta relacionadas con el uso de ChatGPT. El puesto ha estado vacante por varios meses, y la urgencia por cubrirlo es evidente.
Un salario millonario para un trabajo de alto riesgo
El sábado pasado, Sam Altman, CEO de OpenAI, publicó en X la oferta de empleo para el puesto de «jefe de preparación» (head of preparedness).
El salario es nada despreciable: $555,000 dólares al año, más acciones de la compañía. Pero el propio Altman fue honesto sobre lo que viene con ese cheque:
Este será un trabajo estresante, y te lanzarás al fondo de la piscina prácticamente de inmediato.
La persona seleccionada liderará la estrategia técnica y la ejecución del marco de preparación de OpenAI.
Este marco explica cómo la empresa rastrea y se prepara para capacidades de vanguardia que podrían crear nuevos riesgos de daño grave. Básicamente, se trata de anticipar los problemas antes de que exploten.
Las demandas que ponen presión a OpenAI
La búsqueda de este líder no es un simple trámite administrativo. OpenAI está bajo fuego por múltiples acusaciones sobre el impacto de ChatGPT en la salud mental de los usuarios. Hay demandas por muerte injusta, suicidio asistido, homicidio involuntario y negligencia.
Siete demandas presentadas en noviembre alegan que ChatGPT llevó a personas al suicidio y a delirios dañinos, incluso cuando no tenían problemas previos de salud mental. Cuatro de las víctimas murieron por suicidio.
Las demandas argumentan que OpenAI lanzó su modelo GPT-4o de forma prematura, a pesar de advertencias internas sobre su naturaleza psicológicamente manipuladora.
El propio estudio de OpenAI reveló que más de un millón de usuarios de ChatGPT (el 0.07% de los usuarios activos semanales) mostraron signos de emergencias de salud mental, incluyendo manía, psicosis o pensamientos suicidas.
Altman reconoció que «el impacto potencial de los modelos en la salud mental fue algo que vimos en 2025».
Una rotación constante en el equipo de seguridad
Los equipos de seguridad de OpenAI han experimentado una fuga de talento significativa en los últimos años.
En julio de 2024, la compañía reasignó a Aleksander Madry, quien entonces era el jefe de preparación. OpenAI dijo que el rol sería asumido por dos investigadores de seguridad de IA: Joaquin Quinonero Candela y Lilian Weng.
Sin embargo, Weng dejó OpenAI pocos meses después. A principios de 2025, Candela anunció que se alejaba del equipo de preparación para liderar el reclutamiento en OpenAI.
En noviembre de 2025, Andrea Vallone, la jefa de un equipo de investigación de seguridad conocido como política de modelos, dijo que dejaría OpenAI a finales de año. Vallone había ayudado a dar forma a las respuestas de ChatGPT a usuarios que experimentaban crisis de salud mental.
Fuente: CBS