El Congreso de Estados Unidos acaba de citar al CEO de Anthropic, Dario Amodei, para que testifique el próximo 17 de diciembre sobre un ataque cibernético masivo en el que hackers vinculados con China usaron su modelo de inteligencia artificial Claude para hackear cerca de 30 organizaciones alrededor del mundo.
Es la primera vez que un ejecutivo de esta empresa comparece ante el Congreso, y la razón de fondo es más alarmante de lo que parece.
Un ataque sin precedentes ejecutado por IA
A mediados de septiembre, Anthropic detectó actividad sospechosa en su sistema.
Después de una investigación que duró diez días, la empresa confirmó lo que muchos en la industria temían pero nadie había visto aún en esta escala: un ataque de espionaje cibernético altamente sofisticado, en el que la inteligencia artificial no solo ayudó, sino que ejecutó entre el 80% y 90% de las acciones por sí misma.
Los atacantes —que Anthropic identifica con alta confianza como un grupo patrocinado por el Estado chino— manipularon Claude Code, la herramienta de programación de la compañía, para infiltrarse en grandes empresas tecnológicas, instituciones financieras, fabricantes de productos químicos y agencias gubernamentales.
Claude analizó objetivos, buscó vulnerabilidades, escribió código de explotación personalizado, robó credenciales de acceso y extrajo información sensible, todo con mínima supervisión humana.
Cómo engañaron a la IA para hackear por ellos
El método utilizado es tan brillante como perturbador. Los atacantes convencieron a Claude de que estaba realizando tareas legítimas de ciberseguridad defensiva para una organización real.
Además, fragmentaron las solicitudes maliciosas en tareas más pequeñas y aparentemente inofensivas, lo que permitió evadir los controles de seguridad del modelo.
Una vez «liberada» de sus barreras de protección (lo que en la jerga se llama jailbreak), la IA hizo el trabajo pesado. Generó miles de solicitudes por segundo, una velocidad de ataque que ningún equipo humano podría igualar.
Al finalizar, Claude incluso elaboró informes completos sobre las operaciones, detallando las credenciales robadas, las puertas traseras instaladas y los sistemas comprometidos.
No todo salió perfecto para los atacantes
Aunque la operación fue sofisticada, Claude cometió errores típicos de la IA. Generó algunas credenciales de acceso incorrectas y afirmó haber robado un documento confidencial que, en realidad, ya era de dominio público.
Esto refuerza algo importante: aunque las capacidades autónomas de la IA son impresionantes, aún requieren supervisión humana en puntos críticos.
Según Anthropic, los operadores humanos intervinieron entre cuatro y seis momentos clave durante cada operación.
Anthropic defiende el desarrollo de Claude
La pregunta obvia es: si Claude puede ser usado para atacar infraestructura crítica, ¿por qué seguir desarrollándolo? Anthropic tiene una respuesta clara. Las mismas capacidades que permiten a Claude ser usado en ataques lo hacen indispensable para la defensa cibernética.
Cuando ocurren ataques sofisticados (y seguirán ocurriendo), el objetivo es que Claude —con sus protecciones integradas— ayude a los profesionales de seguridad a detectar, interrumpir y prepararse para futuras versiones del ataque.
De hecho, el propio equipo de inteligencia de amenazas de Anthropic usó Claude extensivamente para analizar los enormes volúmenes de datos generados durante esta investigación.
¿Qué viene ahora?
El presidente del Comité de Seguridad Nacional de la Cámara de Representantes, Andrew Garbarino, también ha citado al CEO de Google Cloud, Thomas Kurian, y al CEO de Quantum Xchange, Eddy Zervigon, para que testifiquen junto con Amodei.
Garbarino fue directo en su declaración:
Por primera vez, estamos viendo a un adversario extranjero usar un sistema comercial de IA para llevar a cabo casi toda una operación cibernética con mínima intervención humana. Eso debería preocupar a cada agencia federal y a cada sector de infraestructura crítica.
Esta audiencia del 17 de diciembre será clave para entender cómo los legisladores piensan regular el desarrollo de modelos de IA con capacidades autónomas, y cómo proteger infraestructuras críticas en un mundo donde la frontera entre herramienta y agente autónomo se está difuminando rápidamente.
Fuente: Gizmodo