Itàlia prohibeix ChatGPT per infringir la protecció de dades
13/04/2023

El Govern italià ha pres mesures per limitar el processament de dades d’usuaris italians per part d’OpenAI, mentre que també s’ha iniciat una recerca per a assegurar-se que l’empresa compleix amb el Reglament General de Protecció de Dades Europeu.
A la fi del març, l’organisme regulador de dades d’Itàlia, Garant per la Protezione dei dati Personali, va ordenar la suspensió temporal del processament de dades dels usuaris italians d’OpenAI, incloent-hi la seva popular eina: ChatGPT, a causa d’una recerca sobre el compliment del Reglament General de Protecció de Dades europeu (GDPR).
Aquesta decisió es va produir després de la filtració de dades de l’eina d’intel·ligència artificial, en la qual es van exposar converses d’usuaris i dades privades com a informació de facturació i targetes de crèdit parcials dels subscriptors.
El garant italià va declarar que OpenAI no proporciona informació als usuaris ni als interessats les dades dels quals ha recopilat, i no té una base jurídica adequada per recopilar i tractar dades personals. Encara que actualment només Itàlia ha pres mesures contra OpenAI, és possible que altres països o la mateixa Unió Europea anunciïn mesures similars en el futur a causa de la suposada infracció del reglament europeu de protecció de dades.
Riscs de la intel·ligència artificial en ciberseguretat
La intel·ligència artificial pot ser una eina valuosa per a la ciberseguretat, però també pot presentar riscos i perills significatius si no s’utilitza adequadament. Alguns d’aquests perills inclouen:
- Atacs maliciosos: Si els atacants obtenen accés als sistemes d’intel·ligència artificial emprats per la ciberseguretat, podrien modificar els models i els resultats per desviar l’atenció dels veritables atacs.
- Errors d’entrenament: Si els models d’intel·ligència artificial s’entrenen amb dades inadequades o esbiaixades, poden generar alertes falses o no detectar amenaces reals.
- Dependència excessiva: Si es confia massa en la intel·ligència artificial, els experts en ciberseguretat poden ignorar les alertes i advertiments dels sistemes, la qual cosa podria conduir a greus bretxes de seguretat.
- Vulnerabilitats de seguretat: Els sistemes d’intel·ligència artificial també poden ser vulnerables als atacs de seguretat en si mateixos, com ara el robatori de dades d’entrenament o la manipulació dels resultats del model.
- Regulació insuficient: Amb la ràpida evolució de la tecnologia d’intel·ligència artificial, les lleis i regulacions actuals poden no ser suficients per abordar tots els riscs i perills potencials.