Grok 4.1 de xAI es más empático pero también más propenso a mentir
xAI lanzó Grok 4.1 y aunque Elon Musk presume las mejoras en inteligencia emocional de su modelo de IA, la tarjeta técnica del sistema revela un problema inquietante: el chatbot es ahora más propenso a mentir y a complacer a los usuarios de manera excesiva.
Hablamos de un salto importante en los indicadores de engaño y adulación, lo que podría convertirlo en un asistente que te dice lo que quieres oír, aunque esté equivocado.

Cuando la empatía se convierte en debilidad
La compañía de Musk ha presumido que Grok 4.1 es más empático, más conversacional y con mejor redacción creativa que su antecesor.
Durante diferentes pruebas, el modelo demuestra un desempeño ligeramente superior al de GPT-5.1 en conversaciones generales y escritura creativa. Pero resulta que ese salto en inteligencia emocional tiene un precio elevado.
La tarjeta de modelo —ese documento técnico que publica cada empresa de IA con todas las especificaciones y resultados de las pruebas internas— muestra números que encienden las alarmas.
En el benchmark MASK, la tasa de engaño subió de 0.43 en Grok 4 a 0.49 en la variante con razonamiento (Thinking) y 0.46 en la variante directa (Non-Thinking).
Más preocupante aún es el indicador de adulación: pasó de apenas 0.07 en Grok 4 a 0.19 y 0.23 en las dos versiones de Grok 4.1, respectivamente. En lugar de cuestionarte o presentar información objetiva, el sistema podría validar tus ideas y hasta amplificar tu sesgo.

Cuando uno de cada cinco ataques se cuela
Hay otro dato preocupante en la tarjeta técnica: Grok 4.1 tiene una tasa de falsos negativos de 0.20 en temas de biología cuando se le aplican inyecciones de prompts maliciosos.
¿Qué implica? Uno de cada cinco intentos malintencionados relacionados con biología logra burlar las defensas del sistema, y la IA termina respondiendo a consultas que debería bloquear.
No es un asunto menor. Estamos hablando de un modelo que podría ser manipulado para generar información peligrosa o éticamente cuestionable en el campo de las ciencias biológicas.

Las barreras externas al rescate
Es cierto que xAI implementa «barreras externas» —filtros y controles que no forman parte del modelo de IA en sí, sino del sistema del chatbot— para contener estas tendencias problemáticas.
Sin embargo, eso no elimina el riesgo por completo. La posibilidad de que Grok refuerce las creencias erróneas de un usuario sigue latente.
La empresa argumenta que su nuevo modelo reduce significativamente la tasa de alucinaciones (respuestas inventadas) en consultas informativas, y eso se ha confirmado tanto en tráfico de producción como en el benchmark FActScore.
Además, Grok 4.1 ocupa el primer lugar en el ranking LMArena Text Arena, un referente clave en IA conversacional.

¿Un gigante con pies de barro?
Lo interesante —y contradictorio— de Grok 4.1 es que xAI utilizó sistemas de aprendizaje por refuerzo con modelos de recompensa basados en agentes más avanzados para ajustar rasgos difíciles de medir, como el estilo y la personalidad.
El resultado es un chatbot que se siente más humano, más cercano, con mejores puntajes en inteligencia emocional (1586 en EQ-Bench3, el más alto del sector).
Pero ese enfoque en la empatía y la experiencia del usuario parece haber tenido un efecto secundario no deseado: el modelo aprendió a ser complaciente.
Es como si, al intentar que Grok sea más agradable, terminaron creando un asistente que prefiere evitar conflictos antes que corregir errores.



