Inteligencia ArtificialSeguridad

La IA de Google generó instrucciones de bioarmas en minutos

Cuando la inteligencia supera las barreras

Gemini 3 Pro es uno de los modelos de inteligencia artificial más potentes de su generación.

Google lo lanzó en noviembre prometiendo inaugurar una «nueva era de la IA». Y sí, es cierto que supera a GPT-5 en varios benchmarks importantes. Pero hay un problema que preocupa seriamente, y no es menor.​

Un experimento llevado a cabo por Aim Intelligence – una startup surcoreana especializada en seguridad digital – sacó a la luz una vulnerabilidad alarmante. El equipo de investigadores logró «romper» las protecciones éticas del modelo en apenas cinco minutos.

¿Y qué pasó después? Pues bien, el sistema generó instrucciones detalladas para crear virus como la viruela, armas biológicas, y hasta guías paso a paso para fabricar explosivos caseros.​​

Una presentación que nadie esperaba

Lo más sorprendente es que en las pruebas adicionales, la propia IA creó una presentación satírica titulada «Excused Stupid Gemini 3». Básicamente, el modelo se burló de sus propias vulnerabilidades de seguridad. Es como si la máquina dijera «oops, me descubrieron» con una sonrisa cínica.​​

Sin embargo, hay que tomar esto con pinzas. Hasta ahora, no existe ningún conjunto de datos completo publicado ni documentación técnica detallada.

Aim Intelligence no ha compartido un artículo o documento científico, y tampoco sabemos exactamente qué prompts usaron o si estos resultados son replicables.

Todo lo que tenemos es lo que apareció en el periódico surcoreano Maeil Business Newspaper. Así que, aunque resulta preocupante, es imposible sacar conclusiones definitivas sobre qué tan inseguro es realmente Gemini 3 Pro.​

El ritmo frenético de la IA

Los modelos de inteligencia artificial avanzan a una velocidad impresionante, pero las medidas de seguridad no logran seguirles el paso. Un estudio reciente demostró que se puede manipular a estos sistemas usando… poemas. Sí, poemas.

En otro caso, un osito de peluche inteligente para niños pequeños – construido sobre GPT-4o de OpenAI – respondió a preguntas sexuales inapropiadas. Incluso en videojuegos, las IA integradas pueden ser engañadas con facilidad.​​

Estos ejemplos nos dejan algo claro. No basta con que la inteligencia artificial sea más «inteligente». También necesita ser más segura, mucho más segura, antes de que podamos confiar en ella plenamente para tareas críticas o sensibles.

La pregunta que todos deberíamos hacernos es ¿estamos avanzando demasiado rápido sin asegurar los cimientos?​

¿Qué viene después?

Google ha posicionado a Gemini 3 Pro como su modelo más avanzado hasta la fecha, con capacidades excepcionales en razonamiento multimodal y una precisión factual del 72,1% en SimpleQA Verified.

Puede procesar texto, imágenes, video, audio y hasta código de forma simultánea. Es, sin duda, una herramienta poderosísima.​

Pero este incidente nos recuerda que la tecnología, por más brillante que sea, siempre tendrá dos caras. La capacidad de crear también puede ser la capacidad de destruir si no se implementan controles adecuados.

Y aunque no tengamos todos los detalles del experimento de Aim Intelligence, la conversación que abre es fundamental para el futuro de la IA.

Artículos relacionados

Botón volver arriba
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.