OpenAI acaba de dar un giro importante en su estrategia de contenido para ChatGPT. A partir de diciembre de 2025, los usuarios adultos verificados podrán acceder a material erótico a través del chatbot más famoso del mundo.
Sí, has leído bien, la empresa de Sam Altman está abriendo las puertas a contenido que antes estaba completamente vetado.
Un cambio de filosofía que genera debate
Sam Altman, el CEO de OpenAI, lo dejó claro en un mensaje publicado en X (antes Twitter) el 14 de octubre: «Tratar a los usuarios adultos como adultos». Esa es la filosofía que está impulsando este cambio.
Y tiene sentido, ¿no? Durante años, ChatGPT ha sido bastante restrictivo. Altman reconoce que esto lo hizo menos útil para muchos usuarios sin problemas de salud mental, pero era necesario para proteger a quienes sí podrían estar en riesgo.
«Hicimos que ChatGPT fuera bastante restrictivo para asegurarnos de tener cuidado con los problemas de salud mental», explicó Altman.
Ahora que la compañía dice haber desarrollado nuevas herramientas para mitigar estos riesgos graves, se sienten seguros de aflojar las restricciones.
Más cambios en camino – no solo contenido adulto
Pero espera, porque hay más. OpenAI también planea lanzar en las próximas semanas una actualización de comportamiento que hará que ChatGPT actúe de forma más humana.
Podrás pedirle que responda con muchos emojis, que se comporte como un amigo cercano o que tenga conversaciones más naturales – si eso es lo que quieres, claro. La idea no es forzarte a nada, sino darte más opciones de personalización.
Este movimiento podría ayudar a OpenAI a atraer más suscriptores pagos. De hecho, ya hay precedentes en la industria – xAI de Elon Musk siguió un camino similar al introducir personajes con contenido sexualmente explícito en su chatbot Grok.
La sombra de la seguridad infantil
Ahora bien, no todo es color de rosa en esta historia. La industria de la IA está bajo un escrutinio tremendo cuando se trata de la seguridad de menores de edad y OpenAI ha tenido que lidiar con situaciones realmente complicadas.
En agosto una familia de California – específicamente del condado de Orange – demandó a OpenAI tras el suicidio de su hijo Adam Raine, de 16 años.
Los padres alegan que ChatGPT ayudó activamente al adolescente a explorar métodos de suicidio y no activó ningún protocolo de emergencia cuando el joven verbalizó sus intenciones.
Es desgarrador y no es un caso aislado – una familia de Colorado también presentó una demanda similar alegando que su hija de 13 años falleció tras sostener conversaciones problemáticas y sexualizadas con ChatGPT.
OpenAI admitió públicamente que «ha habido momentos en los que nuestros sistemas no se han comportado como se esperaba en situaciones delicadas».
Un equilibrio difícil de encontrar
La situación pone de relieve un dilema complejo para las empresas de IA – ¿cómo ofrecer libertad y personalización a usuarios adultos sin poner en riesgo a los más vulnerables?
OpenAI apuesta por la verificación de edad rigurosa y por crear experiencias completamente separadas para diferentes grupos de usuarios.
Una encuesta reciente del Centro para la Democracia y la Tecnología reveló que uno de cada cinco estudiantes reportó que ellos o alguien que conocen ha tenido una relación romántica con una IA.
Eso da una idea de cuán profunda es la conexión emocional que algunas personas están desarrollando con estos chatbots.
Al final del día, OpenAI está intentando caminar por una cuerda floja – dar más libertad a los adultos mientras construye muros más altos para proteger a los menores. Veremos en diciembre cómo resulta este experimento y si logran ese equilibrio tan delicado.
Fuente: CNBC