Seguridad

ChatGPT, Claude y Gemini, las IAs preferidas por hackers para ataques y fraudes digitales.

Los hackers norcoreanos y chinos están aprovechando herramientas de inteligencia artificial (IA) como ChatGPT, Claude y Gemini para perfeccionar campañas de espionaje, suplantación y ataques cibernéticos.

Estas técnicas representan un nuevo reto de seguridad global, pues permiten automatizar y sofisticar fraudes, desde el desarrollo de identidades falsas hasta la creación de ataques de phishing y deepfakes, afectando empresas y gobiernos en todo el mundo.

IA en las campañas de espionaje

Kimsuky, un grupo norcoreano vinculado a operaciones de inteligencia internacional, utilizó ChatGPT para generar un borrador convincente de una identificación militar surcoreana.

Estas identificaciones falsas fueron adjuntadas a mensajes de phishing dirigidos a instituciones oficiales de Corea del Sur.

Especialistas de la firma Genians detectaron que los atacantes presentaron los prompts a ChatGPT como «diseños de muestra para fines legítimos,» logrando así evitar los filtros del sistema.

Suplantación laboral y fraude digital

El grupo Kimsuky también fue señalado por aprovechar la IA en la creación de currículums y portafolios falsos, e incluso para resolver pruebas técnicas y desarrollar tareas reales dentro de empresas, infiltrándose así en gigantes tecnológicos estadounidenses.

Según un reporte de Anthropic, no sólo lograron conseguir empleos remotos con identidades falsas, sino que también completaron exitosamente labores técnicas gracias a la asistencia de la IA.

Hackers chinos y uso avanzado de IA

Reportes recientes muestran que hackers chinos han empleado herramientas como Claude y ChatGPT para diseñar campañas de filtración avanzada focalizadas en sistemas gubernamentales y empresas de telecomunicaciones de Vietnam.

Estas herramientas, además de facilitar la creación de scripts de ataque contra contraseñas, también se utilizan para reunir información sensible sobre redes de defensa y sistemas satelitales estadounidenses.

Expansión del riesgo: y manipulación digital

Empresas como OpenAI y Google han identificado el uso de sus modelos de IA para crear perfiles y publicaciones falsas, con el objetivo de generar división política y ejecutar campañas de desinformación.

El uso de imágenes y textos sintéticos complica la identificación de cuentas apócrifas y dificulta la respuesta ante intentos de manipulación masiva o scams empresariales.

Las operaciones de suplantación y ataques dirigidos mediante IA representan una amenaza creciente para empresas y gobiernos. El acceso cada vez más fácil a modelos generativos permite que actores con poca experiencia técnica puedan orquestar campañas automatizadas de fraude y phishing.

Fuente: Anthropic

Artículos relacionados

Botón volver arriba
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.