Actualitat

Primer informe mundial per mitigar els Deepfakes generats amb Intel·ligència Artificial

NOTÍCIES

20/09/2023

Aquest informe de la ETSI se centra en l’ús de la Intel·ligència Artificial per manipular representacions d’identitat multimèdia i il·lustra els riscs que comporta i les mesures que es poden dur a terme per mitigar-los.

L’ETSI acaba de presentar un recent informe elaborat pel Grup sobre intel·ligència artificial en relació amb l’ús de la IA en el que comunament es coneixen com a “deepfakes”. Això fa referència a la creació de vídeos, imatges o gravacions d’àudio generades de manera que simulen l’aparença i el so d’una persona específica.

El document, anomenat ETSI GR SAI 011, ha estat publicat pel grup Securing AI (ISG SAI), i se centra en l’ús de la intel·ligència artificial per la manipulació de representacions multimèdia d’identitat, alhora que destaca els riscs inherents a aquesta pràctica i les possibles mesures que es poden implementar per la seva mitigació.

Segons Scott Cadzow, president de l’ETSI ISG SAI, “Les tècniques d’IA possibiliten manipulacions automatitzades que abans requerien una quantitat significativa de treball manual, i fins i tot en casos extrems, poden generar dades multimèdia falses des de zero. Els deepfakes també poden modificar arxius d’àudio i vídeo de manera específica, mantenint una alta qualitat tant en l’aspecte visual com en el sonor en els resultats, cosa que prèviament era, en gran manera, impracticable utilitzant tecnologies comercials anteriors. Així mateix, les tècniques d’IA es poden emprar per a alterar arxius d’àudio i vídeo de manera més àmplia, incloent-hi canvis en el fons visual o acústic. El nostre informe de l’ETSI proposa mesures per alleujar aquests riscs”.

L’informe aborda les tècniques i amenaces associades als deepfakes generats per IA. Detalla les preocupacions immediates derivades de l’augment de la IA, especialment pel que fa a l’ús de tècniques basades en IA per a la manipulació automàtica de dades d’identitat representades en diversos formats de mitjans, com ara àudio, vídeo i text (deepfakes), així com el programari de generació de text per IA, com ara ChatGPT, tot i seguir les directrius de l’ETSI, l’informe no es refereix a productes o serveis específics.

A més, l’informe analitza diferents enfocaments tècnics i avalua les amenaces plantejades pels deepfakes en diversos escenaris d’atac. Mitjançant l’anàlisi d’aquestes metodologies, el document pretén establir les bases per a la implementació de noves mesures tècniques i organitzatives destinades a alleujar aquestes amenaces, alhora que es busca debatre la seva eficàcia i limitacions.

ISG SAI de l’ETSI es destaca com l’únic grup d’estandardització que es centra exclusivament en la seguretat de la intel·ligència artificial. Fins a la data, el grup ha publicat vuit informes. La seva tasca es centra a definir el paper de la IA en el context de les amenaces actuals i, en fer-ho, identificar mesures que facilitin la implementació segura d’aquesta tecnologia en benefici de la societat a la qual aquesta està destinada a servir.

Llegiu la notícia original al seu lloc web oficial fent clic en aquest mateix enllaç