Inteligencia ArtificialSeguridad

OpenAI ofrece medio millón de dólares por experto en seguridad de IA

OpenAI está buscando un nuevo líder de seguridad para su equipo de preparación.

Y no es casualidad que esto suceda justo ahora, cuando la compañía enfrenta múltiples demandas por muerte injusta relacionadas con el uso de ChatGPT. El puesto ha estado vacante por varios meses, y la urgencia por cubrirlo es evidente.

Un salario millonario para un trabajo de alto riesgo

El sábado pasado, Sam Altman, CEO de OpenAI, publicó en X la oferta de empleo para el puesto de «jefe de preparación» (head of preparedness).

El salario es nada despreciable: $555,000 dólares al año, más acciones de la compañía. Pero el propio Altman fue honesto sobre lo que viene con ese cheque:

Este será un trabajo estresante, y te lanzarás al fondo de la piscina prácticamente de inmediato.

La persona seleccionada liderará la estrategia técnica y la ejecución del marco de preparación de OpenAI.

Este marco explica cómo la empresa rastrea y se prepara para capacidades de vanguardia que podrían crear nuevos riesgos de daño grave. Básicamente, se trata de anticipar los problemas antes de que exploten.

Las demandas que ponen presión a OpenAI

La búsqueda de este líder no es un simple trámite administrativo. OpenAI está bajo fuego por múltiples acusaciones sobre el impacto de ChatGPT en la salud mental de los usuarios. Hay demandas por muerte injusta, suicidio asistido, homicidio involuntario y negligencia.

Siete demandas presentadas en noviembre alegan que ChatGPT llevó a personas al suicidio y a delirios dañinos, incluso cuando no tenían problemas previos de salud mental. Cuatro de las víctimas murieron por suicidio.

Las demandas argumentan que OpenAI lanzó su modelo GPT-4o de forma prematura, a pesar de advertencias internas sobre su naturaleza psicológicamente manipuladora.

El propio estudio de OpenAI reveló que más de un millón de usuarios de ChatGPT (el 0.07% de los usuarios activos semanales) mostraron signos de emergencias de salud mental, incluyendo manía, psicosis o pensamientos suicidas.

Altman reconoció que «el impacto potencial de los modelos en la salud mental fue algo que vimos en 2025».

Una rotación constante en el equipo de seguridad

Los equipos de seguridad de OpenAI han experimentado una fuga de talento significativa en los últimos años.

En julio de 2024, la compañía reasignó a Aleksander Madry, quien entonces era el jefe de preparación. OpenAI dijo que el rol sería asumido por dos investigadores de seguridad de IA: Joaquin Quinonero Candela y Lilian Weng.

Sin embargo, Weng dejó OpenAI pocos meses después. A principios de 2025, Candela anunció que se alejaba del equipo de preparación para liderar el reclutamiento en OpenAI.

En noviembre de 2025, Andrea Vallone, la jefa de un equipo de investigación de seguridad conocido como política de modelos, dijo que dejaría OpenAI a finales de año. Vallone había ayudado a dar forma a las respuestas de ChatGPT a usuarios que experimentaban crisis de salud mental.

Fuente: CBS

Artículos relacionados

Botón volver arriba
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.