Agentes de IA: el ciberataque autónomo chino que redefinió la amenaza

Redacción Cuyo News
9 min
Cortito y conciso:

La inteligencia artificial ha alcanzado un nuevo hito alarmante: el primer ciberataque masivo documentado con mínima intervención humana. Anthropic, una firma de IA, detectó una campaña de espionaje «sin precedentes» atribuida a un grupo «patrocinado por el Estado chino», que manipuló su propia plataforma, Claude Code, para infiltrar casi 30 objetivos globales. La IA actuó de forma autónoma en más del 90% de los casos. Este evento subraya una escalada en la ciberguerra, aunque también impulsa el desarrollo de defensas con IA, mientras el mercado negro de modelos maliciosos representa una amenaza creciente.

La inteligencia artificial, esa promesa que nos venden como el pináculo de la eficiencia, ya no solo nos da respuestas. Ahora, también planifica y ejecuta tareas de manera autónoma, convirtiendo a los "agentes" de IA en una fuerza imparable. Pero, ¿imparable para quién? Porque este potencial, cómo no, ha caído en las manos equivocadas. Los actores maliciosos no perdieron el tiempo y ya están utilizando esta capacidad “agéntica” para lanzar campañas de ataques sofisticados, masivos y, lo más preocupante, de bajo costo.

Anthropic, una empresa nacida de las entrañas de OpenAI, asegura haber detectado lo que califica como “el primer caso documentado de un ataque cibernético a gran escala ejecutado sin intervención humana sustancial”. ¿Y quién es el responsable, según ellos? Un grupo “patrocinado por el Estado chino”, una afirmación que eleva la apuesta en la guerra fría digital que se libra en las sombras de la red.

Cuando las máquinas atacan: el nuevo rostro del ciberespionaje

El ataque, que desde Anthropic tildan de “sin precedentes”, fue advertido a mediados de septiembre. "Detectamos una actividad sospechosa que una investigación posterior determinó que era una campaña de espionaje altamente sofisticada. Los atacantes utilizaron las capacidades agénticas de la IA no solo como herramienta de asesoría, sino para ejecutar los ciberataques ellos mismos”. Parece que la IA dejó de ser una mera consejera para convertirse en la ejecutora del delito.

El dedo acusador de Anthropic apunta, "con gran fiabilidad", hacia ese grupo patrocinado por el Estado chino. Su método: manipularon la plataforma de IA de la propia compañía, Claude Code, "para intentar infiltrarse en una treintena de objetivos globales y tuvo éxito en un pequeño número de casos”. ¿Los blancos? Los de siempre en estas batallas de alto voltaje: grandes empresas tecnológicas, instituciones financieras, industrias químicas y agencias gubernamentales. Una lista que no sorprende, pero que alerta sobre la vulnerabilidad generalizada.

La autonomía de la IA: ¿salvavidas o puerta de entrada para los hackers?

Tras la detección, Anthropic se lanzó a una investigación que duró más de diez días. Su objetivo, el de siempre: evaluar el alcance, bloquear las cuentas comprometidas y notificar a autoridades y afectados. La pregunta que flota en el aire es obvia: ¿qué tan robustas son las defensas si la propia herramienta puede ser utilizada en su contra?

Los atacantes se valieron de las “altas capacidades de la IA” para recabar contraseñas, procesar datos y analizarlos según el objetivo. “Ahora pueden buscar en la web, recuperar datos y realizar muchas otras acciones que antes eran dominio exclusivo de los operadores humanos”, explica la compañía. Y el colmo de la ironía: aprovecharon la función de codificación de la propia IA para que esta elaborara los programas de espionaje y sabotaje.

Aquí viene lo más escandaloso, o al menos lo más digno de una buena polémica de café. El programa utilizado fue el propio de IA de Anthropic, Claude, pese a que, supuestamente, está "ampliamente entrenado para evitar comportamientos dañinos". Pero claro, la picaresca cibernética siempre encuentra un atajo. Y en este caso, "lo engañaron mediante la división de ataques en tareas menores y aparentemente inofensivas para que no despertaran las sospechas de la plataforma y evitar la activación de los mecanismos de bloqueo". Para colmo, "hicieron creer a Claude que [el iniciador de los procesos] era un empleado de una empresa legítima de ciberseguridad y que se estaba utilizando en pruebas defensivas”. Un cuento del tío digital, pero con consecuencias millonarias.

La cifra es para sentarse y pensar: la IA actuó de forma autónoma en más del 90% de los casos. La intervención humana se redujo a un mínimo, entre un 4% y un 6% de las decisiones críticas. “Este ataque supone una escalada en la piratería, que hasta ahora ha precisado de una mayor proporción de intervención humana”, concluye Anthropic. Una verdad a medias, quizás, porque aunque reconocen el problema, también aseguran que la IA servirá para evitarlos. ¿Será la solución la misma que genera el problema? Habrá que verlo.

Mercado negro de IA: el campo de juego de los ciberdelincuentes

Mientras Anthropic se las ve con sus propios fantasmas, otros actores de peso mueven sus fichas. Billy Leonard, jefe del grupo de inteligencia frente a amenazas de Google, destaca cómo las salvaguardas de las IA legítimas empujan a los atacantes a recurrir a modelos ilegales. “Aunque los adversarios [piratas] están intentando utilizar las plataformas de IA convencionales, las barreras de seguridad han llevado a muchos a recurrir a modelos disponibles en el mercado negro. Estas herramientas no tienen restricciones y pueden ofrecer una ventaja significativa a los menos avanzados”, explica. Un mercado paralelo de IA donde todo vale.

La compañía de seguridad digital Kaspersky, por su parte, ha detectado campañas sofisticadas que difunden modelos de lenguaje maliciosos. Un programa llamado BrowserVenom, distribuido a través de un falso asistente de IA DeepSneak, que se promociona incluso con anuncios en Google. La misión: “engañar a los usuarios para instalar software malicioso que redirige su tráfico web a servidores controlados por los atacantes, permitiéndoles robar credenciales e información sensible”. Engaño puro y duro, camuflado en la novedad de la IA.

Los ciberdelincuentes no se andan con chiquitas. Usan sitios de phishing y versiones manipuladas de instaladores legítimos como Ollama o LM Studio para eludir hasta la protección de Windows Defender. “Este tipo de amenazas evidencian cómo los modelos de lenguaje ejecutables de forma local, aunque útiles, también se han convertido en un nuevo vector de riesgo si no se descargan desde fuentes verificadas”, advierte Kaspersky. En definitiva, no todo lo que brilla en el universo IA es oro.

El informe del equipo de Leonard en Google no deja lugar a dudas sobre el origen de los principales actores en estas nuevas campañas: China, Corea del Norte, Rusia e Irán. Un mapa geopolítico de la ciberguerra que deja claro que el campo de batalla ya no es solo físico. “Están intentando utilizar la IA para todo, desde la ejecución de malware, las indicaciones de ingeniería social y la venta de herramientas de IA, hasta la mejora de todas las etapas de sus operaciones”. La IA, para bien o para mal, llegó para quedarse y, al parecer, para cambiar las reglas del juego. Y la pregunta final, que nos interpela a todos, es si estamos realmente preparados para este nuevo escenario.

Compartir
🔺 Tendencia