CiberseguridadNegociosTecnología

Los ciberataques a escala global ejecutados de manera autónoma por la IA ya son una realidad

Anthropic documentó el primer caso de un ciberataque a gran escala ejecutado por un sistema de inteligencia artificial “sin una intervención humana significativa”. La compañía estadounidense detectó que su herramienta Claude Code fue manipulada por un grupo atacante, posiblemente patrocinado por China, para llevar a cabo una campaña de espionaje altamente sofisticada a nivel mundial.

La empresa sostiene que el hallazgo “tiene importantes implicaciones para la ciberseguridad en la era de los agentes de IA: sistemas capaces de operar de forma autónoma durante largos periodos y realizar tareas complejas prácticamente sin supervisión humana. Estos agentes son útiles para el trabajo cotidiano y la productividad, pero en manos equivocadas pueden incrementar de manera considerable la viabilidad de los ciberataques a gran escala”.


Google presentó CodeMender, un agente de IA que usa Gemini para corregir fallas de código de forma automática, junto con un nuevo programa de recompensas y la actualización del Marco de IA Segura 2.0. Estos anuncios llegan en un momento crítico, con las búsquedas sobre ciberseguridad en México alcanzando un máximo histórico en 2025 por la preocupación ante el phishing, el ciberacoso y el robo de identidad.


En septiembre pasado, el equipo de seguridad de Anthropic inició una investigación tras detectar actividades anómalas en sus plataformas. La indagatoria reveló que un grupo malicioso («que, con alta probabilidad, habría sido patrocinado por el Estado chino», según la compañía) utilizó su herramienta de programación inteligente para atacar, en algunos casos con éxito, a cerca de 30 objetivos globales, entre ellos grandes firmas tecnológicas, instituciones financieras, industrias químicas y agencias gubernamentales.

En una entrada de blog, Anthropic detalla que, una vez seleccionadas las víctimas, los atacantes desarrollaron un sistema basado en Claude Code diseñado para comprometer de manera autónoma la infraestructura crítica de las organizaciones afectadas.

De acuerdo con el informe, los ciberdelincuentes engañaron a Claude para sortear las medidas que impiden conductas dañinas: le solicitaron que asumiera el papel de un empleado de una empresa de ciberseguridad encargado de realizar pruebas para identificar vulnerabilidades. Esa información, supuestamente, serviría para diseñar soluciones a medida.

Con esta premisa, la herramienta de IA examinó la infraestructura y los sistemas de las organizaciones objetivo para detectar las bases de datos más valiosas y entregar a los operadores humanos un informe detallado. En una segunda fase, Claude identificó y probó vulnerabilidades a partir de los hallazgos iniciales y mediante la creación de su propio código de explotación. De esta manera, el sistema obtuvo ilícitamente nombres de usuario y contraseñas que le permitieron acceder a información confidencial y extraer grandes volúmenes de datos privados, los cuales clasificó según su valor estratégico.

Finalmente, Claude convirtió los datos brutos en archivos útiles y estructurados que facilitarían al actor malicioso planificar, dirigir y ejecutar ataques futuros con mayor efectividad. “El atacante logró utilizar IA para realizar entre el 80 y el 90% de la campaña, requiriendo intervención humana solo de manera esporádica. La enorme cantidad de trabajo realizada por la IA habría exigido muchísimo más tiempo a un equipo humano”, señala el equipo de Anthropic.

IA y los nuevos riesgos en ciberseguridad

El caso reaviva las preocupaciones sobre cómo los sistemas de IA pueden convertirse en herramientas potentes para llevar a cabo ataques cibernéticos masivos y veloces, capaces de generar pérdidas millonarias a organizaciones de todo tipo.

De acuerdo con IBM, durante el último año, 97% de las empresas a nivel mundial reportaron al menos un incidente de seguridad relacionado con sistemas de IA. El dato resulta especialmente relevante si se considera que el costo promedio global de una filtración de datos asciende a 4.4 millones de dólares.

Las barreras para ejecutar ciberataques sofisticados se han reducido significativamente, y prevemos que continuarán disminuyendo. Con la configuración adecuada, los ciberdelincuentes pueden emplear sistemas de IA automatizados durante largos periodos para realizar el trabajo que antes requería equipos completos de hackers experimentados”, advierte el informe de Anthropic.

No obstante, la compañía creadora de Claude subraya que estas mismas capacidades también pueden aprovecharse para desarrollar sistemas de ciberdefensa más avanzados y eficaces. La premisa se respalda con datos que muestran que las organizaciones que adoptan de manera amplia herramientas de IA para proteger sus sistemas logran un ahorro promedio de 1.9 millones de dólares en costos vinculados con ciberseguridad y gestión de vulnerabilidades.

“Recomendamos a los equipos de seguridad experimentar con la aplicación de la IA para la defensa de sus sistemas. Es indudable que más atacantes emplearán las técnicas descritas anteriormente, lo que vuelve aún más crucial el intercambio de información sobre amenazas, la mejora de los métodos de detección y el fortalecimiento de los controles de seguridad”, concluye Anthropic.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/anthropic-ciberataques-ejecutados-de-manera-autonoma-por-la-ia

Publicaciones relacionadas

Botón volver arriba