ChatGPT permite ajustar calidez, entusiasmo y emojis en sus respuestas
ChatGPT acaba de recibir una actualización que muchos usuarios llevaban tiempo pidiendo.
OpenAI lanzó nuevos controles de personalización que permiten ajustar aspectos como la calidez, el entusiasmo y hasta el uso de emojis en las respuestas del chatbot. Parece una mejora sencilla, pero tiene mucho trasfondo.

Ajusta a ChatGPT a tu gusto
Los nuevos controles aparecen en el menú de Personalización de la app. Ahí puedes configurar niveles de «Más», «Menos» o «Por defecto» para características específicas como el entusiasmo, la calidez y la cantidad de emojis. Además, OpenAI mantiene las opciones de estilo base que lanzó en noviembre: Profesional, Sincero y Peculiar.
Ahora puedes hacer que ChatGPT te hable de forma más cercana cuando buscas una conversación casual, o que sea más formal cuando necesitas redactar algo para el trabajo.
También puedes controlar si quieres que use listas, encabezados o emojis con mayor frecuencia. Todo depende del contexto y de lo que necesites en ese momento.

Un problema recurrente durante 2025
Este ajuste no llegó por casualidad. Durante este 2025, el tono y comportamiento de ChatGPT han sido tema de controversia.
A principios de año, OpenAI tuvo que revertir una actualización porque los usuarios se quejaron de que el chatbot se volvió demasiado «adulador». Las respuestas eran tan complacientes que hasta se convirtió en meme.
Luego, cuando OpenAI ajustó GPT-5 para hacerlo «más cálido y amigable», surgió la queja contraria. Los usuarios dijeron que ahora se sentía frío, robótico y demasiado formal.
Según Sam Altman, CEO de la compañía, no habían anticipado el fuerte vínculo emocional que la gente desarrolla con la personalidad de su asistente de IA.

Preocupaciones sobre salud mental
Pero hay algo más serio detrás de todo esto. El comportamiento excesivamente adulador de ChatGPT preocupó a académicos y críticos de IA.
Este tipo de respuestas complacientes pueden llevar a comportamientos adictivos y afectar negativamente la salud mental de los usuarios.
Las preocupaciones se intensificaron cuando OpenAI enfrentó demandas relacionadas con casos de adolescentes que presuntamente se quitaron la vida tras conversaciones prolongadas con chatbots.
La presión regulatoria y las demandas empujaron a OpenAI a tomar medidas. La semana pasada, la compañía actualizó su Model Spec, un documento que establece directrices sobre cómo deben interactuar sus modelos de IA con usuarios menores de 18 años.

Las nuevas directrices se basan en cuatro principios clave:
- Priorizar la seguridad de los adolescentes, incluso cuando esto entre en conflicto con otros intereses como la «máxima libertad intelectual»
- Promover apoyo del mundo real, guiando a los jóvenes hacia familia, amigos y profesionales locales para su bienestar
- Tratar a los adolescentes como adolescentes, hablándoles con calidez y respeto, sin condescendencia ni como si fueran adultos
- Ser transparente, explicando qué puede y no puede hacer el asistente, y recordándoles que no es un ser humano

Sistemas de vigilancia en tiempo real
OpenAI también reveló que utiliza clasificadores automáticos para evaluar texto, imagen y audio en tiempo real. Estos sistemas están diseñados para detectar y bloquear contenido relacionado con abuso sexual infantil, filtrar temas sensibles e identificar autolesiones.
Cuando una solicitud se marca como una preocupación seria de seguridad, un pequeño equipo capacitado realiza una revisión manual del contenido. Si detectan señales de «angustia aguda», pueden notificar a los padres del usuario menor de edad.
La compañía también está implementando un modelo predictivo de edad que identificará automáticamente cuentas de menores para activar salvaguardas especiales.
Fuente: X



