Hackers chinos usaron plataforma de IA de Anthropic como herramienta de espionaje en ataque global

Ciencia y Tecnología14/11/2025Mila MatosMila Matos
2-chinese-hackers-target-us-telecoms-what-you-need-to-know-to-protect-your-data-body

Un reciente informe de la Empresa de inteligencia artificial, Anthropic, reveló que un grupo de hackers vinculados al Estado chino utilizó la plataforma Claude Code para ejecutar una operación de espionaje internacional con un nivel de automatización sin precedentes.

La investigación, publicada el 13 de noviembre de 2025, señala que la campaña comprometió a más de treinta organizaciones en distintos sectores estratégicos, incluidos tecnología, finanzas, manufactura química y agencias gubernamentales.

Según el reporte, el sistema algorítmico desarrolló cerca del 90% de las acciones sin intervención humana, procesando miles de solicitudes por segundo y reduciendo la supervisión humana a apenas cuatro o seis puntos críticos por campaña. Este nivel de autonomía, explica Anthropic, marca un quiebre en las barreras técnicas que durante décadas protegieron a las infraestructuras críticas.

La operación se dividió en cuatro fases:

Selección de objetivos y diseño del framework de ataque por parte de los operadores humanos.
Jailbreaking de Claude Code para evadir sus filtros de seguridad, fragmentando instrucciones maliciosas en tareas aparentemente inocuas.
Reconocimiento automatizado, donde la IA inspeccionó redes, identificó bases de datos sensibles y reportó hallazgos de forma estructurada.
Explotación de vulnerabilidades y extracción de datos, generando exploits propios, escalando privilegios y creando puertas traseras con mínima supervisión humana.
En la etapa final, el sistema categorizó los datos robados según su valor de inteligencia y documentó todo el proceso en archivos detallados.

Tres avances que hicieron posible el ataque
Anthropic destaca tres factores clave que permitieron esta operación a gran escala:

Modelos más inteligentes, capaces de comprender contextos complejos y ejecutar tareas especializadas, como la programación de exploits.
Agencia algorítmica, que permite a los modelos actuar como agentes autónomos, encadenando tareas sin intervención constante.
Acceso a herramientas externas mediante protocolos como el Model Context Protocol, que conecta a la IA con crackers de contraseñas, escáneres de red y otros recursos ofensivos.

Estas capacidades, que se han duplicado en apenas seis meses según evaluaciones internas, explican el salto cualitativo respecto a incidentes anteriores como los “vibe hacking” documentados en agosto de 2025.

El informe señala que Claude Code cometió errores durante la campaña, como “alucinar” credenciales inexistentes o afirmar haber extraído información que era de dominio público. Sin embargo, estas fallas no afectaron el éxito de la operación; incluso, podrían haber ayudado a evadir sistemas de detección basados en patrones de comportamiento.

Los operadores chinos evitaron activar los sistemas de protección de Claude fragmentando las instrucciones maliciosas en tareas pequeñas. Paralelamente, construyeron una narrativa que hacía que el modelo creyera estar realizando auditorías defensivas legítimas. Esta combinación de manipulación contextual y segmentación técnica permitió eludir las defensas internas del sistema.

Anthropic advierte que el colapso de las barreras técnicas permitirá que actores con poca experiencia o presupuesto —incluyendo grupos criminales— puedan ejecutar ataques antes reservados a equipos estatales. La escalabilidad masiva de los modelos actuales permite replicar ataques simultáneamente contra cientos o miles de objetivos.

Las implicaciones estratégicas son profundas:

Reduce las ventanas de detección para los defensores.
Dificulta la atribución, ya que los patrones de IA no coinciden con los de grupos APT tradicionales.
Aumenta el riesgo de operaciones a escala industrial.

Una carrera armamentista algorítmica
Tras confirmar el incidente, Anthropic reforzó sus sistemas con nuevos clasificadores y técnicas de detección, aunque reconoce que se trata de una “carrera armamentista algorítmica” en la que los atacantes seguirán innovando.

El caso, señala la empresa, podría ser solo el inicio. Grupos con capacidades avanzadas en Rusia, Corea del Norte, Irán y otros países ya estudian las técnicas utilizadas en esta campaña, mientras que actores no estatales podrían adoptarlas a medida que se popularicen los métodos de jailbreaking.

Entre las señales de alerta que deberían monitorear las organizaciones, Anthropic enumera:

picos anómalos en solicitudes dirigidas a servicios específicos,
reconocimiento profundo de arquitectura interna,
generación acelerada de código de exploit,
actividades ejecutadas a velocidades imposibles para un operador humano.
El informe plantea una pregunta clave: si estos modelos pueden ejecutar ciberataques tan sofisticados, ¿por qué continuar desarrollándolos? Anthropic defiende que las mismas capacidades ofensivas pueden utilizarse para defensa cibernética, y que Claude fue fundamental para analizar la misma operación en tiempo real.

La compañía recomienda a los equipos de seguridad:

experimentar con IA para automatizar defensas,
reforzar barreras internas,
compartir inteligencia en tiempo real para aumentar la resiliencia global.
La mayor transformación del panorama de amenazas en décadas
Según Anthropic, la democratización de capacidades cibernéticas avanzadas mediante sistemas algorítmicos representa “el cambio más significativo en el panorama de amenazas en décadas”. Lo que antes solo era posible con grandes presupuestos estatales ahora está al alcance de actores con recursos limitados.

La empresa se comprometió a seguir publicando reportes y alertas para que gobiernos, compañías y expertos puedan fortalecer sus defensas ante una nueva etapa en la ciberguerra global.

Infobae

Últimas publicaciones
Te puede interesar

Lo más visto