Actualitat

El NIST adverteix dels riscos de seguretat i privadesa pel desplegament ràpid del sistema d’IA

NOTÍCIES

23/01/2024

L’Institut Nacional d’Estàndards i Tecnologia (NIST) dels Estats Units avisa sobre els reptes de privadesa i seguretat que sorgeixen a causa de l’augment del desplegament de sistemes d’intel·ligència artificial (IA) en els últims anys.

“Aquests reptes de seguretat i privadesa inclouen el potencial de manipulació adversa de les dades d’entrenament, l’explotació adversa de vulnerabilitats dels models per afectar negativament el rendiment del sistema d’IA i, fins i tot, manipulacions malicioses, modificacions o la mera interacció amb models per extreure informació delicada sobre les persones representades a les dades, sobre el model en si mateix o les dades de l’empresa patentades”, va dir NIST.

A mesura que els sistemes d’IA s’integren als serveis en línia a un ritme ràpid, en part impulsat per l’aparició de sistemes d’IA generatius com l’OpenAI ChatGPT i Google Bard, els models que alimenten aquestes tecnologies s’enfronten a una sèrie d’amenaces en diverses etapes de les operacions d’aprenentatge automàtic.

Aquests sistemes inclouen dades d’entrenament corruptes, defectes de seguretat en els components del programari, enverinament del model de dades, debilitats de la cadena de subministrament i violacions de privadesa derivades d’atacs d’injecció ràpida.

“En una gran majoria, els desenvolupadors de programari necessiten més persones per utilitzar el seu producte perquè pugui millorar amb l’exposició”, afirma l’Apostol Vassilev, informàtic del NIST. “Però no hi ha cap garantia que l’exposició sigui bona. Un assistent virtual pot emetre informació dolenta o tòxica quan se li demana amb un llenguatge dissenyat amb cura.”

Els atacs, que poden tenir un impacte significatiu en la disponibilitat, integritat i privadesa, es classifiquen de la manera següent:

  • Atacs d’evasió, que tenen com a objectiu generar resultats adversaris després de desplegar un model.
  • Atacs d’enverinament, que tenen com a objectiu la fase d’entrenament de l’algorisme introduint dades corruptes.
  • Atacs a la privadesa, que tenen com a objectiu recollir informació confidencial sobre el sistema o les dades en què s’ha entrenat, tot plantejant preguntes que eludeixen les barreres existents.
  • Atacs d’abús, que tenen com a objectiu comprometre fonts d’informació legítimes, com ara una pàgina web amb dades incorrectes, per reutilitzar l’ús previst del sistema.

Aquests atacs, va dir el NIST, poden ser duts a terme per actors d’amenaça amb coneixements complets (caixa blanca), coneixements mínims (caixa negra) o una comprensió parcial d’alguns dels aspectes del sistema d’IA (caixa grisa), i li afegeixen una altra dimensió de la taxonomia.

L’agència va assenyalar, a més, la manca de mesures de mitigació sòlides per contrarestar aquests riscos, i va instar la comunitat tecnològica en general a “proporcionar defenses més bones”.

El desenvolupament arriba més d’un mes després que el Regne Unit, els Estats Units i els socis internacionals d’altres 16 països publiquessin directrius per al desenvolupament de sistemes segurs d’intel·ligència artificial (IA).

“Malgrat el progrés significatiu que han aconseguit la IA i l’aprenentatge automàtic, aquestes tecnologies són vulnerables als atacs que poden causar fallades espectaculars amb conseqüències nefastes”, va dir Vassilev. “Hi ha problemes teòrics amb la seguretat dels algorismes d’IA que simplement encara no s’han resolt. Si algú diu el contrari, us està enganyant.”

Llegiu la notícia original al seu lloc web oficial fent clic en aquest mateix enllaç