Actualitat

Et poden piratejar el teu compte de ChatGPT? Sí. Aquests són els estàndards de seguretat reals dels quals té una certa mancança

NOTÍCIES

11/11/2025

La popularitat de les plataformes d’intel·ligència artificial ha arribat a nivells sense precedents. Però juntament amb aquest creixement sorgeix una pregunta com a mínim inquietant per a milions d’usuaris: són realment segures?

Darrere de cada interacció, document o conversa emmagatzemada al núvol, hi ha un flux d’informació delicada que podria ser vulnerable si els mecanismes de protecció no estan a l’altura.

El que va començar com una eina per millorar la productivitat ha esdevingut una infraestructura crítica que concentra dades empresarials, personals i, en molts casos, confidencials.

El problema no rau únicament en els ciberatacs externs, sinó en la manca d’estàndards de seguretat sòlids per part dels mateixos proveïdors.

I és que la majoria de plataformes d’IA comercials no implementen mesures comparables a les que s’exigeixen en serveis financers o sanitaris, malgrat que el tipus d’informació que gestionen pot ser el mateix o més delicat.

Aquesta bretxa obre la porta a filtracions, accessos no autoritzats i un tipus de risc que encara no s’està gestionant amb la serietat que requereix.

Les plataformes de la IA tenen una protecció insuficient

A diferència d’altres plataformes digitals consolidades, moltes eines de la IA no tenen mecanismes bàsics que avui es consideren indispensables en qualsevol entorn segur.

L’autenticació en dos passos no sempre està activa per defecte, els registres d’accés són limitats i l’usuari no té visibilitat sobre qui ha entrat al teu compte ni des d’on.

Aquesta manca de control és l’equivalent digital a deixar la porta entreoberta, confiant que ningú no intentarà entrar-hi.

A més, no hi ha alertes automàtiques davant d’accessos des d’adreces IP desconegudes.

A la pràctica, algú podria iniciar sessió en un compte des d’un altre país i començar a llegir converses o descarregar documents sense que el propietari rebi cap notificació.

Per a un usuari comú pot ser una molèstia; per a una empresa, un desastre. L’exposició d’informació estratègica, codi font o documents legals emmagatzemats a converses prèvies pot tenir conseqüències econòmiques i reputacionals greus.

Un problema que va més enllà de la contrasenya

Les vulnerabilitats no sorgeixen només per contrasenyes febles o pràctiques insegures dels usuaris. Els especialistes assenyalen que el veritable risc és a la mateixa arquitectura d’aquestes plataformes.

Com que es tracta de sistemes tancats i administrats de manera centralitzada, l’usuari ha de dipositar la confiança absoluta en el proveïdor.

No hi ha la possibilitat d’auditar el xifratge d’extrem a extrem ni de verificar si les dades emmagatzemades als servidors estan protegides amb els estàndards adequats.

La seguretat, per tant, esdevé una qüestió de fe tecnològica. I quan una eina concentra milions d’usuaris i converses que poden contenir secrets comercials, aquesta fe cega esdevé una amenaça.

Diversos informes publicats per firmes de ciberseguretat el 2024 ja advertien sobre la manca de transparència en la gestió de dades dins d’alguns models de llenguatge.

En un d’ells, la consultora CyberEdge va estimar que el 63 % de les empreses que fan servir sistemes d’IA generativa no compten amb protocols interns per controlar la informació que s’introdueix en aquestes plataformes.

Ara els ciberdelinqüents apunten a ChatGPT

Els ciberdelinqüents han detectat en aquestes eines un objectiu atractiu. Els comptes d’usuaris han esdevingut portes d’entrada per accedir a informació que abans estava protegida per tallafocs corporatius.

Un simple accés no autoritzat a un compte pot revelar estratègies de negoci, anàlisis financeres, dissenys de productes o fragments de codi que haurien de romandre confidencials.

El risc no només es limita al robatori de dades. Hi ha casos documentats de manipulació de respostes, suplantació d’identitat dins d’entorns corporatius i recol·lecció massiva de prompts per entrenar sistemes de manera il·lícita.

L’escenari és tan delicat que alguns experts ja comparen la situació amb els primers anys del correu electrònic, quan les filtracions i els atacs de pesca es van disparar per manca de protocols clars d’autenticació.

Aleshores, com cal protegir-se?

Davant d’aquest panorama, els especialistes en seguretat recomanen adoptar models d’intel·ligència artificial sobirans, és a dir, sistemes que s’executin en infraestructures controlades per les mateixes organitzacions.

Aquestes solucions permeten xifratge real d’extrem a extrem, control d’accessos mitjançant polítiques de Zero Trust i la possibilitat d’auditar logs d’activitat. Encara que la seva implantació implica un cost inicial més gran, la diferència en protecció i privadesa resulta decisiva per als que gestionen informació delicada.

La tendència apunta a models autoallotjats, en servidors propis o núvols privats, que garanteixin que les dades mai no surten de l’entorn corporatiu.

Aquest enfocament també exigeix ​​canvis en la cultura interna: establir normes d’higiene de prompts, revisar els permisos d’accés i tractar les plataformes d’IA com a actius crítics, no com a eines d’oficina simples.

Diverses multinacionals ja han començat a implementar aquesta estratègia, conscients que el següent gran incident de ciberseguretat es podria originar en un compte d’intel·ligència artificial compromès.

El debat sobre la seguretat de la intel·ligència artificial gairebé no ha començat.

Llegiu la notícia original al seu lloc web oficial fent clic en aquest mateix enllaç