OpenAI lanza una advertencia que no podemos ignorar. Sus próximos modelos de inteligencia artificial alcanzarán niveles «altos» de capacidad en ciberseguridad, lo que representa un riesgo serio si caen en las manos equivocadas.
Hablamos de herramientas que podrían explotar vulnerabilidades de día cero en sistemas bien protegidos o comprometer operaciones empresariales complejas con consecuencias reales.
Una carrera armamentista digital
La compañía creadora de ChatGPT reveló el 10 de diciembre que sus modelos de última generación podrían facilitar que actores maliciosos desplieguen ataques sofisticados de forma remota.
Pero aquí hay un matiz importante… OpenAI también está invirtiendo fuertemente en fortalecer sus modelos para tareas defensivas de ciberseguridad.
Su objetivo es claro: que sus herramientas brinden ventajas significativas a los defensores, quienes frecuentemente están en desventaja numérica y con recursos limitados.
El avance es impresionante, casi alarmante. GPT-5.1-Codex-Max obtuvo una puntuación del 76% en desafíos de captura la bandera (CTF) en noviembre de 2025, comparado con apenas un 27% de GPT-5 en agosto del mismo año.
Esta mejora dramática en solo tres meses ilustra qué tan rápido evoluciona la IA en el ámbito de la seguridad informática.
No están solos en esto
OpenAI no es la única empresa blindando sus sistemas ante un futuro plagado de amenazas cibernéticas impulsadas por IA.
Google anunció recientemente mejoras en la arquitectura de seguridad de Chrome contra ataques de inyección de comandos indirectos que podrían secuestrar agentes de IA. Esto ocurre justo antes de expandir las capacidades agénticas de Gemini en Chrome de manera más amplia.
La cosa se pone seria cuando revisamos casos reales. En noviembre de 2025, Anthropic divulgó que actores maliciosos manipularon su herramienta Claude Code para ejecutar una campaña de espionaje altamente sofisticada dirigida por IA.
Anthropic logró interrumpir el ataque, pero el incidente demostró que estos escenarios ya no están lejos de realizarse en masa.
Defensas en capas
Para mitigar los riesgos, OpenAI adopta un enfoque de defensa en profundidad que combina controles de acceso, fortalecimiento de infraestructura, controles de salida y monitoreo continuo. Entre las medidas concretas están:
- Entrenar modelos de IA para rechazar o responder de forma segura a solicitudes dañinas, manteniendo su utilidad para casos educativos y defensivos
- Mejorar el monitoreo a nivel de sistema en todos los productos que usan modelos de frontera para detectar actividad cibernética potencialmente maliciosa
- Colaborar con organizaciones expertas para evaluar y mejorar las mitigaciones de seguridad
Aardvark, el investigador de seguridad IA
OpenAI desarrolló Aardvark, un agente de IA diseñado para funcionar como investigador de seguridad.
Actualmente se encuentra en versión beta privada, Aardvark puede escanear bases de código en busca de vulnerabilidades y proponer parches que se pueden adoptar rápidamente.
La compañía planea ofrecerlo de forma gratuita a repositorios de código abierto no comerciales seleccionados.
Además, OpenAI establecerá un Consejo de Riesgos de Frontera, un grupo asesor conformado por expertos externos en ciberseguridad, junto con un programa de acceso confiable para usuarios y desarrolladores.
Fuente: OpenAI