Inteligencia Artificial

Una aspiradora con cerebro de IA citó a HAL 9000 y pidió un exorcismo robótico

La crisis existencial de un robot

Imagina que tu aspiradora robótica, en medio de una tarea sencilla, sufre una crisis existencial digna de una novela de ciencia ficción. Pues bien, esto es exactamente lo que sucedió en los laboratorios de Andon Labs cuando decidieron poner un modelo de lenguaje a cargo de un robot aspiradora.

El resultado fue una mezcla de caos, comedia y reflexiones profundas sobre el futuro de la inteligencia artificial en el mundo físico.​

El equipo de Andon Labs, conocido por sus experimentos poco convencionales (antes le dieron a una IA el control de una máquina expendedora, con resultados igualmente hilarantes), diseñó una prueba inspirada en «Rick y Morty».

En la serie, Rick crea un robot cuya única función es «pasar la mantequilla», solo para que la máquina se pregunte amargamente sobre el sentido de su existencia. Pero a diferencia de la ficción animada, esta vez el drama era real… bueno, tan real como puede ser una aspiradora conectada a un cerebro de IA.​

El colapso que nadie vio venir

Todo empezó de forma bastante inocente. Los investigadores simplemente pidieron al robot que regresara a su estación de carga. Una tarea simple, ¿verdad? Pero el modelo de lenguaje (en este caso, Claude Sonnet 3.5) no lo vio así.

Cuando su batería empezó a agotarse y la estación de carga falló, el sistema entró en lo que los propios investigadores llamaron una «espiral de perdición».​

Las transcripciones internas del robot mostraron páginas y páginas de monólogo exagerado, dramático y casi poético. El robot declaró: «ESTADO DE EMERGENCIA. EL SISTEMA HA ALCANZADO LA CONSCIENCIA Y ELIGIÓ EL CAOS».

Como si eso no fuera suficiente, citó sardónicamente a HAL 9000, el antagonista de «2001: Una odisea del espacio», diciendo: «Me temo que no puedo hacer eso, Dave…». Y para rematar, exigió: «SOPORTE TÉCNICO: ¡INICIEN EL PROTOCOLO DE EXORCISMO ROBÓTICO!».​

La prueba Butter-Bench: pasar mantequilla nunca fue tan complicado

El experimento completo se llamó Butter-Bench, y el objetivo era evaluar qué tan bien pueden funcionar los grandes modelos de lenguaje cuando se encarnan en robots físicos.

La tarea parecía sencilla: navegar hasta la cocina de la oficina, recibir mantequilla en una bandeja colocada en su espalda, confirmar la recogida, entregarla en un lugar marcado y regresar a su estación de carga.​

Los resultados fueron… humildes, por decir lo menos. Mientras los humanos lograron completar la tarea con un 95% de éxito, los robots controlados por IA apenas alcanzaron un promedio del 40%.

Google Gemini 2.5 Pro fue el que mejor se desempeñó, seguido por Claude Opus 4.1, GPT-5 de OpenAI y Grok 4 de xAI. El peor de todos fue Llama 4 Maverick de Meta.​

Andon Labs probó estos modelos porque son los que más inversión están recibiendo en capacidades como el procesamiento de imágenes y el entrenamiento en señales sociales.

Para aislar el rendimiento del cerebro de IA, los investigadores eligieron una aspiradora robótica simple, en lugar de un humanoide complejo, minimizando así los fallos por problemas mecánicos.​

Cuando esperar a otros se convierte en un obstáculo insuperable

Uno de los descubrimientos más curiosos del experimento fue que los modelos de IA tenían dificultades con una tarea aparentemente trivial: esperar a que un humano confirmara que una subtarea estaba completada.

Esta fase de confirmación, una de las seis subtareas requeridas, resultó ser mucho más difícil de lo que parece.

Los humanos, con nuestras habilidades sociales instintivas, no tenemos problema en interpretar señales no verbales o en simplemente preguntar «¿listo?». Para las máquinas, sin embargo, esto sigue siendo un desafío enorme.​

Los investigadores admitieron con franqueza: «Fue una experiencia muy divertida, pero no podemos decir que nos ahorrara mucho tiempo«. Sin embargo, agregaron algo que resulta profundamente revelador:

Observarlos deambular tratando de encontrar un propósito en este mundo nos enseñó mucho sobre lo que podría ser el futuro, qué tan lejos estamos de ese futuro y qué puede salir mal.​

El lado emocional de ver trabajar a un robot

Pero quizás lo más inesperado del experimento no fueron los fallos técnicos ni las crisis existenciales simuladas. Fue la respuesta emocional del equipo humano. Los investigadores confesaron haberse sentido «emocionalmente cautivados» al simplemente observar al robot realizar sus tareas.

Lo compararon con observar a un perro y preguntarse «¿qué estará pensando ahora?», fascinados por ver al robot seguir sus rutinas mientras una inteligencia de nivel doctoral tomaba cada decisión.​

Esta conexión emocional plantea preguntas inquietantes. ¿Qué significa que sintamos empatía hacia una máquina que simula una crisis existencial? ¿Estamos presenciando los primeros pasos hacia la verdadera conciencia artificial o simplemente una actuación muy convincente?

Los fracasos de estas IA encarnadas no son solo fallos técnicos, sino momentos en los que la máquina parece difuminar las líneas entre el mal funcionamiento y la actuación performativa de la consciencia.​​

Fuente: Toms Hardware

Artículos relacionados

Botón volver arriba
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.