NVIDIA presenta Alpamayo: razonamiento en cadena para vehículos sin conductor

NVIDIA acaba de presentar algo que podría cambiar por completo el juego de los vehículos autónomos. Se trata de Alpamayo, una familia de modelos de inteligencia artificial de código abierto que -por primera vez- permite a los autos «pensar» antes de tomar decisiones en la carretera.

El anuncio se dio durante el CES 2026, y la apuesta es clara: llevar la conducción autónoma al siguiente nivel mediante modelos que no solo perciben el entorno, sino que entienden el «por qué» detrás de cada maniobra.

El gran reto de los vehículos autónomos

Cualquiera que haya estado al volante sabe que la carretera es impredecible. Un peatón que cruza de improviso, lluvia intensa de noche, niebla cerrada o un objeto caído en el camino… son situaciones que los humanos resolvemos con sentido común y experiencia.

Para los autos autónomos, estos escenarios raros -conocidos como «long tail»– son su talón de Aquiles.

Las arquitecturas tradicionales separan percepción y planificación, lo que limita su capacidad de adaptarse cuando algo sale del guión.

Los enfoques de aprendizaje extremo a extremo (end-to-end) han avanzado bastante, pero aún les cuesta dominar esos casos extraños que caen fuera de su entrenamiento. Y justo ahí es donde Alpamayo entra en acción.

Razonamiento en cadena para manejar como humano

La familia Alpamayo introduce modelos VLA (Vision Language Action) basados en razonamiento tipo «cadena de pensamiento» (chain-of-thought).

En pocas palabras: el sistema analiza el entorno visual, piensa en voz alta sobre las opciones posibles y luego decide la mejor trayectoria.

Esto no solo mejora la capacidad de conducción, sino que también permite explicar cada decisión… algo fundamental para generar confianza y seguridad. Además, todo está respaldado por el sistema de seguridad NVIDIA Halos.

Tres pilares: modelos, simulación y datos

NVIDIA diseñó Alpamayo como un ecosistema completo y abierto. No se trata solo de un modelo que corre dentro del auto, sino de una herramienta «maestra» que los desarrolladores pueden afinar y adaptar a sus propias soluciones de conducción autónoma. El paquete incluye tres elementos clave:

Ya está disponible en Hugging Face con pesos del modelo abiertos y scripts de inferencia. Las versiones           futuras traerán más parámetros, mayor detalle de razonamiento y opciones comerciales.

 

Juntos, estos tres componentes crean un ciclo de desarrollo continuo para pilas (stacks) de conducción autónoma basadas en razonamiento.​

Más allá de Alpamayo

Los desarrolladores también pueden aprovechar la amplia biblioteca de herramientas y modelos de NVIDIA, incluidas las plataformas NVIDIA Cosmos y NVIDIA Omniverse.

Esto permite afinar los modelos con datos propios de flotas, integrarlos en la arquitectura NVIDIA DRIVE Hyperion con cómputo acelerado NVIDIA DRIVE AGX Thor, y validar el rendimiento en simulación antes del despliegue comercial.

En resumen, Alpamayo marca un antes y un después en el desarrollo de vehículos autónomos. No solo se trata de sensores más sofisticados o algoritmos más rápidos, sino de dotar a los autos de algo parecido al sentido común humano.

Y lo mejor de todo es que está disponible para que cualquier desarrollador, investigador o empresa pueda construir sobre esta base.

El futuro de la movilidad autónoma ya no es solo ver y reaccionar… ahora también incluye pensar.​

Fuente: Nvidia

Salir de la versión móvil