Un grup xinès protagonitza el primer ciberatac amb IA a gran escala «sense intervenció humana substancial»
28/11/2025

«Aquesta agressió suposa una escalada a la pirateria», denuncia la companyia Anthropic
La intel·ligència artificial (IA) evoluciona per assolir cada vegada més nivells d’autonomia. És la característica principal dels agents, models que no només aporten respostes a requeriments, sinó que són capaços de planificar i executar tasques en nom de l’usuari. Aquest potencial no podia escapar als actors maliciosos, que fan servir aquesta capacitat «agèntica» per desenvolupar campanyes d’atacs sofisticades, massives i de baix cost. Anthropic, una empresa nord-americana d’investigació i desenvolupament d’intel·ligència artificial fundada per exmembres d’OpenAI (el director general és Dario Amodei), ha detectat el que consideren «el primer cas documentat d’un atac cibernètic a gran escala executat sense intervenció humana substancial» i del qual responsabilitza un grup «patrocinat per l’Estat xinès», segons un informe publicat recentment.L’atac, definit com «sense precedents», va ser advertit a mitjans de setembre. «Vam detectar una activitat sospitosa que una investigació posterior va determinar que era una campanya d’espionatge altament sofisticada. Els atacants van fer servir les capacitats agèntiques de la IA no només com a eina d’assessoria, sinó per executar els ciberatacs ells mateixos.»
L’actor, que Anthropic identifica «amb gran fiabilitat» com un grup patrocinat per l’Estat xinès, va actuar manipulant la plataforma d’IA d’aquesta empresa, Codi Claude, «per intentar infiltrar-se en una trentena d’objectius globals i va tenir èxit en un petit nombre de casos.» Els objectius, com en la majoria dels casos d’aquests atacs a gran escala, van ser grans empreses tecnològiques, institucions financeres, indústries químiques i agències governamentals.
Després de la detecció de l’atac, Antrhopic va obrir una investigació que es va allargar durant més de 10 dies per avaluar-ne l’abast, bloquejar els comptes d’IA vulnerats i notificar tant a les autoritats com a les entitats directament afectades.
Els atacants van utilitzar les altes capacitats de la IA per demanar contrasenyes i dades, processar-les i analitzar-les en funció de l’objectiu. «Ara poden buscar al web, recuperar dades i fer moltes altres accions que abans eren domini exclusiu dels operadors humans», explica Anthropic. Posteriorment, van aprofitar la funció de codificació perquè la pròpia IA elaborés els programes d’espionatge i sabotatge.
El programa utilitzat va ser el propi de la IA de l’empresa, Claude, malgrat que està dotat de salvaguardes per evitar-ne la utilització maliciosa. «Està àmpliament entrenat per evitar comportaments nocius, però el van enganyar mitjançant la divisió d’atacs en tasques menors i aparentment inofensives perquè no despertessin les sospites de la plataforma i evitar l’activació dels mecanismes de bloqueig. Segons expliquen els autors de l’informe d’Anthropic «Van fer creure a Claude que [l’iniciador dels processos] era un empleat d’una empresa legítima de ciberseguretat i que es feia servir en proves defensives.»
La IA va actuar de manera autònoma en més del 90 % dels casos i la intervenció humana es va reduir entre un 4 % i un 6 % de les decisions crítiques.
«Aquest atac suposa una escalada a la pirateria, que fins ara li havia calgut una proporció més gran d’intervenció humana», conclou Anthropic, però l’empresa ressalta que, igual que la IA ha servit per a aquest atac, també desenvolupa eines més sofisticades i eficaces per evitar-los.
En aquest sentit, Billy Leonard, cap del grup d’intel·ligència davant d’amenaces de Google, destaca els intents d’ús d’eines d’IA legítimes i com les salvaguardes desenvolupades obliga els atacants a recórrer a models il·legals. «Encara que els adversaris [pirates] estan intentant utilitzar les plataformes d’IA convencionals, les barreres de seguretat han portat molts a recórrer a models disponibles al mercat negre. Aquestes eines no tenen restriccions i poden oferir un avantatge significatiu als menys avançats», explica en una nota.
Sobre aquest aspecte, l’empresa de seguretat digital Kaspersky ha detectat campanyes de ciberatacs noves i sofisticades que difonen models de llenguatge maliciosos per posar en risc la seguretat dels usuaris que hi recorren sense conèixer-ne el caràcter.
La firma ha identificat un programa, anomenat BrowserVenom, que es distribueix a través d’un fals assistent d’IA anomenat DeepSneak. Aquest suplanta la identitat de DeepSeek-R1 i es promociona fins i tot mitjançant anuncis a Google. L’empresa adverteix que «L’objectiu és enganyar els usuaris per instal·lar programari maliciós que redirigeix el trànsit web a servidors controlats pels atacants, cosa que permet robar credencials i informació delicada.»
Els ciberdelinqüents fan servir llocs de suplantació d’identitat mitjançant pesca (engany) i versions manipulades d’instal·ladors legítims com ara Ollama o LM Studio per camuflar l’atac, eludint fins i tot la protecció de Windows Defender.
Kaspersky adverteix que «Aquest tipus d’amenaces evidencien com els models de llenguatge executables de manera local, tot i que siguin útils, també s’han convertit en un nou vector de risc si no es descarreguen des de fonts verificades.»
A l’informe de l’equip de Leonard a Google s’identifica l’origen dels principals actors de les campanyes noves a la Xina, Corea del Nord, Rússia i l’Iran: «Estan intentant utilitzar la IA per a tot, des de l’execució de programari maliciós, les indicacions d’enginyeria social i la venda d’eines d’IA fins a la millora de totes les etapes de les operacions.»









