Un agent de la IA de Meta filtra dades internes accidentalment
20/04/2026

L’empresa de Mark Zuckerberg ha qualificat l’incident com a d’alta gravetat i s’ha justificat dient que aquestes eines encara estan en fase d’experimentació.
Un agent d’intel·ligència artificial de Meta ha provocat recentment l’exposició de grans quantitats de dades delicades de la companyia durant diverses hores.
El problema va començar quan un enginyer de la companyia de Mark Zuckerberg va consultar un agent de la casa per resoldre un dubte tècnic en un fòrum intern.
La intel·ligència artificial va publicar per si mateixa una resposta que un altre empleat havia aplicat sense verificar-la adequadament, i això va permetre que la informació delicada dels usuaris i documents interns quedés accessible a persones que normalment no haurien de tenir-hi accés.
La bretxa va durar unes 2 hores abans que els equips de seguretat restablissin els controls interns.
La firma de Menlo Park ha confirmat l’incident i ha assegurat que no hi ha hagut filtració externa de dades, tot i que ha qualificat l’esdeveniment com un error intern greu i l’ha tractat com a alerta de seguretat de màxim nivell.
En concret, ho ha identificat com de ‘Gravetat 1’, el segon nivell de gravetat més alt en el seu sistema intern per mesurar els problemes de seguretat.
L’empresa s’ha justificat indicant que aquestes eines automatitzades encara es troben en fase d’experimentació i poden cometre errors, com també els humans, especialment quan actuen amb autonomia i permisos amplis.
Quan una IA la fa bona
Els agents de la IA que actuen pel seu compte ja han generat incidents a l’empresa. Summer Yue, directora de seguretat i alineació a Meta Superintelligence, va relatar a X el mes passat que el seu agent OpenClaw va acabar esborrant completament la safata d’entrada, tot i que havia rebut instruccions de demanar autorització abans d’executar qualsevol acció.
Tot i aquests incidents, la firma manté una visió positiva sobre el futur de les IA amb autonomia. Recentment, l’empresa ha adquirit Moltbook, plataforma d’estil Reddit, amb l’objectiu que els agents d’OpenClaw puguin interactuar i coordinar-se entre si.
Altres gegants tecnològics també han informat de problemes semblants amb agents de la IA interns. Així, aquests incidents serveixen per recordar-nos que encara que la intel·ligència artificial pot accelerar processos i oferir solucions, la seva integració en sistemes corporatius requereix protocols clars de supervisió i de control d’accés.









