Amb la moda de la intel·ligència artificial i els drons, es pot piratejar un algorisme?
19/06/2025

La tecnologia avança a pas de gegant i sorgeixen formes noves d’aplicar la intel·ligència artificial en dispositius que, fins fa poc, eren considerats eines d’ús limitat: els drons.
Quan parlem de drons, parlem especialment dels emprats per les forces armades o cossos de seguretat, que han evolucionat per convertir-se en plataformes autònomes guiades per algorismes cada cop més sofisticats.
Aquesta combinació entre intel·ligència artificial i drons ha donat lloc a sistemes capaços de prendre decisions en temps real, identificar objectius, analitzar entorns i executar accions tàctiques sense la intervenció constant d‟un operador humà.
Amb aquesta evolució, però, també arriba una pregunta inevitable: es pot piratejar un algorisme? La preocupació és important, perquè comprometre un sistema podria tenir conseqüències devastadores.
Intel·ligència artificial en drons d’ús estratègic
La implementació d’algorismes a drons militars i de seguretat ha transformat les capacitats operatives en missions crítiques. Des de tasques de vigilància fronterera fins a intervencions en zones de conflicte, els drons amb intel·ligència artificial permeten reduir riscos humans, ampliar l’abast d’actuació i actuar amb eficiència notable.
Aquests algorismes són capaços d’identificar patrons de moviment, reconèixer vehicles sospitosos o seguir rutes predefinides fins i tot en condicions adverses. En teoria tot està controlat i optimitzat. Tot i això, la confiança dipositada en aquests sistemes planteja una qüestió fonamental: fins a quin punt són segurs davant de les amenaces cibernètiques?
Els experts en ciberseguretat han advertit que fins i tot els algorismes més avançats no estan exempts de vulnerabilitats. El problema no resideix únicament al dron com a dispositiu físic, sinó a tot l’ecosistema que l’envolta: xarxes de comunicació, servidors de processament de dades, sensors, i la mateixa lògica de programació que dona vida a l’algorisme.
Es pot piratejar un algorisme?
La resposta és sí. Tot i que moltes vegades es percep la intel·ligència artificial com una entitat gairebé invulnerable, la realitat és que els algorismes també poden ser víctimes de ciberatacs. Quan parlem de drons emprats pels cossos de seguretat, aquesta vulnerabilitat esdevé especialment preocupant.
Un atacant sofisticat podria alterar el comportament d’un dron reprogramant les seves decisions automàtiques, interceptant les ordres o fins i tot introduint informació falsa que el sistema processarà com a vàlida. Això no només compromet la missió, sinó que posa en risc vides humanes i pot afectar greument la seguretat nacional.
A més, en estar connectats a xarxes sense fil o sistemes al núvol, els drons amb intel·ligència artificial són susceptibles a atacs de suplantació, saturació de dades o manipulació dels seus sensors. És a dir, no es tracta de ciència-ficció: ja hi ha precedents documentats en els quals sistemes autònoms han estat compromesos durant operacions reals.
La sofisticació dels atacs digitals
Els ciberatacs actuals ja no es limiten a tècniques de força bruta o sabotatge clàssic. Ara, els atacants poden valdre’s d’intel·ligència artificial per dissenyar ofensives més precises i silencioses. És a dir, una IA maliciosa pot estudiar el comportament d’un algorisme legítim per detectar-ne les debilitats i explotar-les amb eficàcia.
Aquest tipus d’amenaces exigeix que els fabricants i els operadors de drons desenvolupin solucions de defensa cada cop més avançades. No es tracta només de protegir la xarxa, sinó de blindar el nucli de l’algorisme que pren decisions, i avaluar-ne la resistència davant de possibles alteracions internes o inputs manipulats des de l’exterior.
La seguretat com a part del disseny
Un dels grans errors del desenvolupament tecnològic ha estat deixar la seguretat per al final. En el cas dels drons amb intel·ligència artificial, no es pot caure en aquest mateix error. La protecció contra els atacs ha de formar part del disseny des de les primeres fases del projecte, i no afegir-se com un «pedaç» posterior.
Els protocols d’encriptació, els sistemes de detecció d’anomalies, les auditories periòdiques del codi font i l’entrenament de l’algorisme amb dades diverses i no manipulables són mesures necessàries per reduir el risc. Alhora, comptar amb una arquitectura descentralitzada que limiti els punts crítics pot marcar la diferència en situacions d’emergència.
Per descomptat, aquestes mesures impliquen un esforç tècnic i econòmic, però el cost de no aplicar-les podria ser infinitament més gran si una bretxa de seguretat permet l’ús malintencionat d’un drons.
El paper de les autoritats i les normatives
Atès l’ús creixent dels drons per part dels exèrcits i els cossos policials, és indispensable que hi hagi marcs normatius específics que en regulin tant l’operació com la ciberseguretat. No n’hi ha prou de formar pilots o tècnics, també cal establir estàndards de protecció que evitin incidents crítics.
Alguns països ja han començat a legislar sobre la matèria, i han exigit que qualsevol sistema autònom emprat amb fins de seguretat passi auditories digitals abans de ser desplegat. Però encara queda molt camí per recórrer, especialment pel que fa a cooperació internacional i els protocols de resposta davant dels ciberincidents.
Estem preparats per a un futur autònom?
La pregunta que segueix a l’aire no és només si un algorisme pot ser piratejat, sinó si estem preparats per assumir les conseqüències que això passi. Al món dels drons amb intel·ligència artificial aplicats a l’àmbit militar o policial, els riscos es multipliquen.
La tecnologia ens ofereix solucions increïbles, però també ens obliga a replantejar les nostres prioritats. No es tracta de frenar l’avenç, sinó d’acompanyar-lo amb mesures sòlides de prevenció. Si els algorismes prendran decisions en situacions crítiques, hem d’estar segurs que no respondran a interessos aliens a la programació original.
Avui més que mai, parlar dels drons i de la intel·ligència artificial no es pot separar de parlar de ciberseguretat. Si tu estàs involucrat en el desenvolupament, la implementació o la supervisió d’aquests sistemes, és moment de mirar més enllà de les seves capacitats tècniques i preguntar-te: com està de protegit aquest algorisme?