Di Luca Sambucci
Chi pensava che la prossima guerra sarebbe stata un’apoteosi cyber, con sofisticati attacchi cibernetici e battaglioni dotati delle più recenti arme autonome forse sarà rimasto un po’ deluso. Quella che si sta combattendo in Ucraina è una guerra che di cyber ha ben poco, se escludiamo le solite scorribande dei gruppi di attivisti che hanno come obiettivo il defacement dei siti o il furto di dati e credenziali. Cose che francamente già avvenivano in abbondanza anche prima della guerra. Nonostante l’organizzazione di un cyber-esercito di volontari da parte dell’Ucraina e la dichiarazione di cyber-guerra da parte di Anonymous contro la Russia, le linee sul campo di battaglia si spostano ancora alla vecchia maniera, fatta di sangue, sudore e forza cinetica.
Eppure chi si occupa di intelligenza artificiale teme a ogni conflitto che il proprio oggetto di studio diventi protagonista di morte e distruzione. Innocue reti neurali che nelle ricerche sono ottimizzate per distinguere oggetti, animali e persone, nei campi di battaglia vengono usate per decidere se qualcuno dovrà vivere o morire. Nessun ricercatore AI che si rispetti sarebbe orgoglioso nel vedere i suoi studi utilizzati per conferire “intelligenza offensiva” ai sistemi d’arma. Il settore è nettamente contrario all’uso dell’intelligenza artificiale per questi scopi, tanto che diverse iniziative promosse da noti ricercatori chiedono una messa al bando dei sistemi d’arma autonomi o LAWS (Lethal Autonomous Weapon Systems). Nel 2016 il Future of Life Institute – un’organizzazione che si batte per prevenire i rischi esistenziali delle nuove tecnologie – ha promosso una lettera aperta per chiedere una moratoria sulle armi autonome di tipo offensivo. Fra gli oltre 31.000 firmatari vi erano anche Stephen Hawking, Elon Musk e Jack Dorsey, oltre che tantissimi fra i più importanti ricercatori AI.
Eppure tali richieste, sottolineate da altre campagne con video-shock come Ban Slaugherbots e if human: kill(), sono state per ora largamente disattese dai decisori politici. A malapena due mesi prima dell’invasione russa in Ucraina, alle Nazioni Unite non si è riusciti a trovare l’accordo per regolamentare i LAWS. Non stupisce quindi il nervosismo che si registra nel nostro settore. Qualche giorno fa, ad esempio, l’Associazione Italiana per l’Intelligenza Artificiale ha rilasciato una nota stampa che, facendo riferimento alla guerra in Ucraina, ha ribadito la forte richiesta di mettere al bando i killer robot.
Come poi spesso avviene quando parliamo di intelligenza artificiale, vi è tutto un problema di definizioni che andrebbe risolto. Cos’è un’arma autonoma? Anche una stupidissima mina è autonoma. Un vecchio missile a ricerca di calore è autonomo. Un drone che vola su un obiettivo e colpisce solo quando si verifica una data condizione (ad esempio, capta un’emissione radio, o vede un veicolo di un certo tipo) è autonomo. Dove stabiliamo il confine dell’intelligenza artificiale? Abbiamo provato ad affrontare il problema l’anno scorso in questo articolo sulla guerra in Libia, a dire il vero senza arrivare a grandi risultati.
Torniamo dunque alla guerra in Ucraina. Come è stata usata finora l’intelligenza artificiale? Al momento potremmo suddividere l’uso dell’AI in quattro categorie.
Disinformazione: finti account
La presenza di bot sui social network che sostengono incessantemente la narrativa di una delle due parti è un meccanismo oliato da anni di polarizzazione. Non è stato difficile per le “fabbriche di troll” riconfigurare gli account per veicolare propaganda. L’intelligenza artificiale in questo caso ha aiutato creando innumerevoli profili fake, con tanto di foto verosimili di persone che in realtà non esistono, per cercare di far passare gli account come appartenenti a persone in carne e ossa evitando così la cancellazione da parte degli algoritmi dei social network.
Sempre l’AI viene presumibilmente utilizzata per creare contenuti in maniera automatica, consentendo così a poche persone di gestire migliaia di account social, ognuno con una sua fotografia, interazioni fittizie, messaggi preconfezionati e, in sostanza, una sua “personalità”. Il tutto allo scopo di fare disinformazione, soffocare le notizie vere dietro tonnellate di notizie false, generare trend, influenzare a proprio favore l’opinione pubblica di entrambi gli schieramenti.
Disinformazione: deepfakes
I deepfakes sono video o audio alterati per mostrare persone che fanno o dicono cose che in realtà non hanno mai fatto né detto. Tali video generalmente vengono creati sovrapponendo il volto di una persona (la vittima) sul corpo di un attore, con un risultato così realistico da non consentire a un normale spettatore di comprendere l’inganno. Vista la continua presenza social del presidente ucraino Volodymyr Zelenskyy, il 2 marzo il Centro per le comunicazioni strategiche dell’Ucraina, temendo che la Russia rilasciasse un deepfake dove Zelenskyy si arrende e ordina alle truppe di consegnare le armi, avvisò preventivamente attraverso la sua pagina Facebook che qualsiasi video del presidente ucraino che si arrende avrebbe dovuto essere considerato un deepfake, ovvero un falso.
L’avviso fu quasi profetico (o forse qualcuno aveva spifferato qualcosa) perché due settimane dopo ignoti hacker hanno violato il sito del tabloid ucraino in lingua russa Segodnya inserendovi un video deepfake che mostra il presidente ucraino mentre chiede ai suoi soldati di deporre le armi.https://platform.twitter.com/embed/Tweet.html?creatorScreenName=https%3A%2F%2Fwww.twitter.com%2FLucaSambucci&dnt=true&embedId=twitter-widget-0&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3NrZWxldG9uX2xvYWRpbmdfMTMzOTgiOnsiYnVja2V0IjoiY3RhIiwidmVyc2lvbiI6bnVsbH0sInRmd19zcGFjZV9jYXJkIjp7ImJ1Y2tldCI6Im9mZiIsInZlcnNpb24iOm51bGx9fQ%3D%3D&frame=false&hideCard=false&hideThread=false&id=1504123674516885507&lang=it&origin=https%3A%2F%2Fwww.notizie.ai%2Fluso-dellintelligenza-artificiale-nella-guerra-fra-russia-e-ucraina%2F&sessionId=e2426189533bb7174d72da28eaf51629c9afc640&siteScreenName=LucaSambucci&theme=light&widgetsVersion=f001879%3A1634581029404&width=550px
Chi è avvezzo ai deepfake non ha grandi problemi a riconoscere il falso, ma se quel file non fosse stato subito tolto dal sito (e se non vi fosse stata immediatamente la smentita di Zelenskyy, quello vero), il video avrebbe potuto trarre in inganno più di una persona.
Sulla scorta del deepfake di Zelenskyy ha ricominciato a circolare anche un altro deepfake, già visto verso fine febbraio, dove il presidente russo Vladimir Putin annunciava la fine della guerra e il riconoscimento, da parte dell’Ucraina, della Crimea come territorio russo.https://platform.twitter.com/embed/Tweet.html?creatorScreenName=https%3A%2F%2Fwww.twitter.com%2FLucaSambucci&dnt=true&embedId=twitter-widget-1&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3NrZWxldG9uX2xvYWRpbmdfMTMzOTgiOnsiYnVja2V0IjoiY3RhIiwidmVyc2lvbiI6bnVsbH0sInRmd19zcGFjZV9jYXJkIjp7ImJ1Y2tldCI6Im9mZiIsInZlcnNpb24iOm51bGx9fQ%3D%3D&frame=false&hideCard=false&hideThread=false&id=1504179503693647872&lang=it&origin=https%3A%2F%2Fwww.notizie.ai%2Fluso-dellintelligenza-artificiale-nella-guerra-fra-russia-e-ucraina%2F&sessionId=e2426189533bb7174d72da28eaf51629c9afc640&siteScreenName=LucaSambucci&theme=light&widgetsVersion=f001879%3A1634581029404&width=550px
Una cosa è certa: non è l’ultima volta che vedremo dei video fake circolare a destra e a sinistra durante un conflitto, e sicuramente man mano che migliorerà la tecnologia i deepfake saranno molto più difficili da smascherare.
Riconoscimento facciale
Oggi da una semplice fotografia è possibile risalire ai profili social, e dunque all’identità, della persona ritratta. La tecnologia che si occupa di effettuare il confronto con milioni di volti è nota come riconoscimento facciale. Per le ovvie conseguenze sulla privacy essa viene spesso considerata la pecora nera dell’intelligenza artificiale.
Si pensa che entrambi i Paesi in conflitto facciano un crescente uso di strumenti di riconoscimento facciale. La Russia, ad esempio, già usa ampiamente il riconoscimento facciale nella metropolitana di Mosca per intercettare persone sgradite al governo. Un caso recente è stato il fermo della ventisettenne russa Sofia Attarova, che il 24 febbraio scrisse un tweet dove faceva capire che avrebbe partecipato alla manifestazione contro la guerra in piazza Pushkin, tweet successivamente cancellato. Il 1 marzo, però, alla stazione della metropolitana di Fonvizinskaya un poliziotto l’ha fermata dicendole che era ricercata, e la segnalazione che la ragazza si trovava proprio a quella fermata gli era stata fornita da “Sfera”, il sistema di monitoraggio dei passeggeri tramite riconoscimento facciale. Non è neanche la prima volta che a Mosca si usa questo sistema AI per scopi politici.
Ma al momento l’uso militarmente più interessante avviene contro le forze russe, ad esempio per il riconoscimento dei soldati al fronte. Oggi tutti hanno uno smartphone in mano e pochi hanno la disciplina necessaria a evitare di postare sui social foto e video dal campo di battaglia. Il primo marzo il leader ceceno Ramzan Kadyrov ha postato un breve video su Telegram in cui un soldato si riprendeva davanti a una linea di carri armati che sferragliavano lungo una strada.
Appena visto il video, un esperto francese di OSINT (l’uso di risorse pubbliche per l’individuazione di informazioni potenzialmente riservate) ha fatto alcune ricerche mirate online, anche tramite software di riconoscimento facciale come il russo FindClone e l’americano PimEyes, trovando tutto sul soldato in questione, scoprendo non solo come si chiamava, ma anche in quale luogo preciso era stato girato quel video. Chi è curioso può leggere tutta l’indagine qui.
Anche il governo ucraino fa ampio uso del riconoscimento facciale in questo conflitto, grazie soprattutto all’aiuto di Clearview, un’azienda statunitense già pesantemente criticata in passato per aver addestrato i suoi algoritmi con foto prese senza permesso da Internet (e recentemente sanzionata dal nostro Garante per la Privacy per 20 milioni di Euro). Secondo Reuters allo scoppio del conflitto fu la stessa Clearview a farsi avanti, offrendo aiuto al governo ucraino. Forte del suo immenso database, in particolare due miliardi di immagini provenienti dal social russo Vkontakte, Clearview consente oggi all’Ucraina di identificare soldati, prigionieri di guerra, caduti al fronte, o anche le persone che attraversano il confine per partecipare agli scontri o per fuggire dalla guerra.
Il riconoscimento facciale è uno strumento molto potente che consente a un’entità centrale di individuare velocemente e con relativa semplicità praticamente chiunque. Decisamente utile durante il conflitto, ma siamo sicuri che a guerra finita il governo dell’Ucraina vorrà farne a meno?
Armi autonome
Arriviamo al punto più temuto ma anche più difficile da analizzare. Nonostante diversi armamenti abbiano procedure automatizzate o semi-automatizzate, non è facile capire quanta libertà sia stata data sul campo di battaglia a tali tecnologie.
Parliamo soprattutto di droni. Quasi assenti durante le prime settimane di guerra, ora entrambe le parti hanno iniziato a usarli in maniera più insistente. Gli ucraini hanno cinquanta squadre di piloti esperti dell’unità Aerorozvidka, che lanciano i loro droni di notte per colpire il nemico quando meno se lo aspetta.
La Turchia prima della guerra avrebbe consegnato all’Ucraina diversi (c’è chi stima dalle 20 alle 50 unità) droni Bayraktar TB2, che supportano sia il volo controllato da remoto, sia il volo autonomo (controllato, quindi, da un sistema di intelligenza artificiale). Fonti ucraine riportano che ulteriori droni TB2 sarebbero arrivati anche a guerra già iniziata. Questi droni si sono dimostrati subito molto utili alle forze ucraine, consentendo loro vittorie inaspettate.
Nonostante la Turchia sia anche il Paese di produzione del STM Kargu-2, il primo drone che secondo un rapporto dell’ONU avrebbe ucciso autonomamente dei soldati in Libia nel 2020, tale modello non sembra sia stato consegnato alle forze ucraine. I TB2 forniti non avrebbero procedure offensive autonome.
Neanche gli Switchblade di AeroVironment, droni statunitensi che recentemente il presidente USA Biden ha promesso di donare all’Ucraina, avrebbero un’AI con “licenza di uccidere”: i droni si limiterebbero a navigare verso gli obiettivi forniti dagli operatori basandosi sui segnali GPS.
Dal lato russo, le forze armate hanno già fatto ampio uso di droni in altri teatri di guerra, come la Siria o il Nagorno-Karabakh. Ad esempio i droni KUB-BLA sviluppati da ZALA Aero, una filiale di Kalashnikov, che detonano all’impatto con l’obiettivo. Per non parlare del noto Uran-9 UCGV, sviluppato dalla 766ma “Impresa di Produzione e Tecnologia” a Nakhabino, vicino a Mosca. L’Uran-9 è un moderno drone di terra usato dalle forze armate russe, progettato per compiti di ricognizione e fuoco di supporto in ambienti urbani ed è controllato da remoto. Entrato in attività nel 2016, il drone può montare due cannoni automatici Shipunov 2A72 da 30mm, una mitragliatrice coassiale 7.62mm, missili anticarro Ataka e fino a 12 lanciarazzi termobarici Shmel-M. L’Uran-9 finora si è distinto soprattutto per le delusioni, in particolare nei test sul campo in Siria. Tuttavia, dopo ulteriori prove e presumibili migliorie, qualche mese fa le forze armate russe hanno rivelato che l’Uran-9 verrà accettato in servizio dalle forze di terra nel corso del 2022, sia per scopi di combattimento sia di ricognizione.
Ma l’Uran-9 in Ucraina per ora non si è visto. Per conoscere quali droni sono impiegati in questa guerra è sufficiente dare un’occhiata ai rottami che si possono trovare al suolo. I primi droni sono stati quelli ricognitivi, ad esempio questo Orlan-10.
Successivamente si sono iniziati a vedere questi KUB-BLA, di cui facevamo menzione prima.
Caricati con 3 chili di esplosivo e sfere di metallo per causare più danni (morti) possibili.
Quanta “intelligenza” c’è in questi droni? I KUB-BLA avrebbero a bordo un sistema di intelligenza artificiale per il riconoscimento degli oggetti, almeno a quanto riferisce il produttore Kalashnikov: “L’ultima tecnologia AIVI (Artificial Intelligence Visual Identification) è un sistema intelligente di rilevamento e riconoscimento di oggetti in tempo reale per l’identificazione di classe e tipo a bordo del drone con copertura completa dell’emisfero inferiore.” In particolare, il sistema di visione artificiale consentirebbe il “riconoscimento e classificazione simultanea di oltre 1000 oggetti statici e in movimento“.
Abbiamo quindi un modello AI direttamente a bordo del drone, ovvero senza la necessità di mandare e far elaborare le immagini alla base, in grado di riconoscere 1000 tipologie di oggetti, ad esempio un’auto da un camion, una persona da una scatola, ecc. Il motivo per cui questi sistemi si implementano a bordo è evidente: consentono una maggiore immediatezza nel riconoscere qualcosa a beneficio di una decisione da prendere sul posto (presumibilmente da parte dell’AI), senza quindi affidarsi a precari segnali radio che potrebbero essere interrotti dal nemico in qualsiasi momento.
Tuttavia, nulla al momento fa pensare che i KUB-BLA siano dotati di un sistema decisionale per selezionare autonomamente l’opzione di piombarsi su un obiettivo ed esplodere. Un algoritmo di classificazione oggetti direttamente a bordo però può far ipotizzare che in futuro questa eventualità possa essere facilmente implementata.
Conclusione
L’uso dell’intelligenza artificiale nella guerra in Ucraina al momento si è concentrato soprattutto nella disinformazione, con la creazione di contenuti artefatti a uso e consumo della propaganda. Si può notare un uso crescente del riconoscimento facciale per scopi di controllo della popolazione (in Russia) e per l’identificazione del nemico (in Ucraina).
Attualmente non abbiamo visto armi completamente autonome nel teatro di guerra. Si sono fatti vedere diversi droni, peraltro arrivati tardi nel conflitto, che presentano elementi di autonomia limitati alla navigazione e al riconoscimento degli oggetti.
È chiaro che a guerra in corso è quasi impossibile ottenere dati affidabili che ci possano far capire con esattezza quale sia l’uso dell’intelligenza artificiale sul campo di battaglia. Forse nelle analisi post-conflitto potranno emergere elementi per comprendere meglio se in determinate azioni belliche si sia fatto uso di procedure di autonomia avanzata, e con quali risultati.
Chi pensava che la prossima guerra sarebbe stata un’apoteosi cyber, con sofisticati attacchi cibernetici e battaglioni dotati delle più recenti arme autonome forse sarà rimasto un po’ deluso. Quella che si sta combattendo in Ucraina è una guerra che di cyber ha ben poco, se escludiamo le solite scorribande dei gruppi di attivisti che hanno come obiettivo il defacement dei siti o il furto di dati e credenziali. Cose che francamente già avvenivano in abbondanza anche prima della guerra. Nonostante l’organizzazione di un cyber-esercito di volontari da parte dell’Ucraina e la dichiarazione di cyber-guerra da parte di Anonymous contro la Russia, le linee sul campo di battaglia si spostano ancora alla vecchia maniera, fatta di sangue, sudore e forza cinetica.
Eppure chi si occupa di intelligenza artificiale teme a ogni conflitto che il proprio oggetto di studio diventi protagonista di morte e distruzione. Innocue reti neurali che nelle ricerche sono ottimizzate per distinguere oggetti, animali e persone, nei campi di battaglia vengono usate per decidere se qualcuno dovrà vivere o morire. Nessun ricercatore AI che si rispetti sarebbe orgoglioso nel vedere i suoi studi utilizzati per conferire “intelligenza offensiva” ai sistemi d’arma. Il settore è nettamente contrario all’uso dell’intelligenza artificiale per questi scopi, tanto che diverse iniziative promosse da noti ricercatori chiedono una messa al bando dei sistemi d’arma autonomi o LAWS (Lethal Autonomous Weapon Systems). Nel 2016 il Future of Life Institute – un’organizzazione che si batte per prevenire i rischi esistenziali delle nuove tecnologie – ha promosso una lettera aperta per chiedere una moratoria sulle armi autonome di tipo offensivo. Fra gli oltre 31.000 firmatari vi erano anche Stephen Hawking, Elon Musk e Jack Dorsey, oltre che tantissimi fra i più importanti ricercatori AI.
Eppure tali richieste, sottolineate da altre campagne con video-shock come Ban Slaugherbots e if human: kill(), sono state per ora largamente disattese dai decisori politici. A malapena due mesi prima dell’invasione russa in Ucraina, alle Nazioni Unite non si è riusciti a trovare l’accordo per regolamentare i LAWS. Non stupisce quindi il nervosismo che si registra nel nostro settore. Qualche giorno fa, ad esempio, l’Associazione Italiana per l’Intelligenza Artificiale ha rilasciato una nota stampa che, facendo riferimento alla guerra in Ucraina, ha ribadito la forte richiesta di mettere al bando i killer robot.
Come poi spesso avviene quando parliamo di intelligenza artificiale, vi è tutto un problema di definizioni che andrebbe risolto. Cos’è un’arma autonoma? Anche una stupidissima mina è autonoma. Un vecchio missile a ricerca di calore è autonomo. Un drone che vola su un obiettivo e colpisce solo quando si verifica una data condizione (ad esempio, capta un’emissione radio, o vede un veicolo di un certo tipo) è autonomo. Dove stabiliamo il confine dell’intelligenza artificiale? Abbiamo provato ad affrontare il problema l’anno scorso in questo articolo sulla guerra in Libia, a dire il vero senza arrivare a grandi risultati.
Torniamo dunque alla guerra in Ucraina. Come è stata usata finora l’intelligenza artificiale? Al momento potremmo suddividere l’uso dell’AI in quattro categorie.
Disinformazione: finti account
La presenza di bot sui social network che sostengono incessantemente la narrativa di una delle due parti è un meccanismo oliato da anni di polarizzazione. Non è stato difficile per le “fabbriche di troll” riconfigurare gli account per veicolare propaganda. L’intelligenza artificiale in questo caso ha aiutato creando innumerevoli profili fake, con tanto di foto verosimili di persone che in realtà non esistono, per cercare di far passare gli account come appartenenti a persone in carne e ossa evitando così la cancellazione da parte degli algoritmi dei social network.
Sempre l’AI viene presumibilmente utilizzata per creare contenuti in maniera automatica, consentendo così a poche persone di gestire migliaia di account social, ognuno con una sua fotografia, interazioni fittizie, messaggi preconfezionati e, in sostanza, una sua “personalità”. Il tutto allo scopo di fare disinformazione, soffocare le notizie vere dietro tonnellate di notizie false, generare trend, influenzare a proprio favore l’opinione pubblica di entrambi gli schieramenti.
Disinformazione: deepfakes
I deepfakes sono video o audio alterati per mostrare persone che fanno o dicono cose che in realtà non hanno mai fatto né detto. Tali video generalmente vengono creati sovrapponendo il volto di una persona (la vittima) sul corpo di un attore, con un risultato così realistico da non consentire a un normale spettatore di comprendere l’inganno. Vista la continua presenza social del presidente ucraino Volodymyr Zelenskyy, il 2 marzo il Centro per le comunicazioni strategiche dell’Ucraina, temendo che la Russia rilasciasse un deepfake dove Zelenskyy si arrende e ordina alle truppe di consegnare le armi, avvisò preventivamente attraverso la sua pagina Facebook che qualsiasi video del presidente ucraino che si arrende avrebbe dovuto essere considerato un deepfake, ovvero un falso.
L’avviso fu quasi profetico (o forse qualcuno aveva spifferato qualcosa) perché due settimane dopo ignoti hacker hanno violato il sito del tabloid ucraino in lingua russa Segodnya inserendovi un video deepfake che mostra il presidente ucraino mentre chiede ai suoi soldati di deporre le armi.https://platform.twitter.com/embed/Tweet.html?creatorScreenName=https%3A%2F%2Fwww.twitter.com%2FLucaSambucci&dnt=true&embedId=twitter-widget-0&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3NrZWxldG9uX2xvYWRpbmdfMTMzOTgiOnsiYnVja2V0IjoiY3RhIiwidmVyc2lvbiI6bnVsbH0sInRmd19zcGFjZV9jYXJkIjp7ImJ1Y2tldCI6Im9mZiIsInZlcnNpb24iOm51bGx9fQ%3D%3D&frame=false&hideCard=false&hideThread=false&id=1504123674516885507&lang=it&origin=https%3A%2F%2Fwww.notizie.ai%2Fluso-dellintelligenza-artificiale-nella-guerra-fra-russia-e-ucraina%2F&sessionId=e2426189533bb7174d72da28eaf51629c9afc640&siteScreenName=LucaSambucci&theme=light&widgetsVersion=f001879%3A1634581029404&width=550px
Chi è avvezzo ai deepfake non ha grandi problemi a riconoscere il falso, ma se quel file non fosse stato subito tolto dal sito (e se non vi fosse stata immediatamente la smentita di Zelenskyy, quello vero), il video avrebbe potuto trarre in inganno più di una persona.
Sulla scorta del deepfake di Zelenskyy ha ricominciato a circolare anche un altro deepfake, già visto verso fine febbraio, dove il presidente russo Vladimir Putin annunciava la fine della guerra e il riconoscimento, da parte dell’Ucraina, della Crimea come territorio russo.https://platform.twitter.com/embed/Tweet.html?creatorScreenName=https%3A%2F%2Fwww.twitter.com%2FLucaSambucci&dnt=true&embedId=twitter-widget-1&features=eyJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2hvcml6b25fdHdlZXRfZW1iZWRfOTU1NSI6eyJidWNrZXQiOiJodGUiLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3NrZWxldG9uX2xvYWRpbmdfMTMzOTgiOnsiYnVja2V0IjoiY3RhIiwidmVyc2lvbiI6bnVsbH0sInRmd19zcGFjZV9jYXJkIjp7ImJ1Y2tldCI6Im9mZiIsInZlcnNpb24iOm51bGx9fQ%3D%3D&frame=false&hideCard=false&hideThread=false&id=1504179503693647872&lang=it&origin=https%3A%2F%2Fwww.notizie.ai%2Fluso-dellintelligenza-artificiale-nella-guerra-fra-russia-e-ucraina%2F&sessionId=e2426189533bb7174d72da28eaf51629c9afc640&siteScreenName=LucaSambucci&theme=light&widgetsVersion=f001879%3A1634581029404&width=550px
Una cosa è certa: non è l’ultima volta che vedremo dei video fake circolare a destra e a sinistra durante un conflitto, e sicuramente man mano che migliorerà la tecnologia i deepfake saranno molto più difficili da smascherare.
Riconoscimento facciale
Oggi da una semplice fotografia è possibile risalire ai profili social, e dunque all’identità, della persona ritratta. La tecnologia che si occupa di effettuare il confronto con milioni di volti è nota come riconoscimento facciale. Per le ovvie conseguenze sulla privacy essa viene spesso considerata la pecora nera dell’intelligenza artificiale.
Si pensa che entrambi i Paesi in conflitto facciano un crescente uso di strumenti di riconoscimento facciale. La Russia, ad esempio, già usa ampiamente il riconoscimento facciale nella metropolitana di Mosca per intercettare persone sgradite al governo. Un caso recente è stato il fermo della ventisettenne russa Sofia Attarova, che il 24 febbraio scrisse un tweet dove faceva capire che avrebbe partecipato alla manifestazione contro la guerra in piazza Pushkin, tweet successivamente cancellato. Il 1 marzo, però, alla stazione della metropolitana di Fonvizinskaya un poliziotto l’ha fermata dicendole che era ricercata, e la segnalazione che la ragazza si trovava proprio a quella fermata gli era stata fornita da “Sfera”, il sistema di monitoraggio dei passeggeri tramite riconoscimento facciale. Non è neanche la prima volta che a Mosca si usa questo sistema AI per scopi politici.
Ma al momento l’uso militarmente più interessante avviene contro le forze russe, ad esempio per il riconoscimento dei soldati al fronte. Oggi tutti hanno uno smartphone in mano e pochi hanno la disciplina necessaria a evitare di postare sui social foto e video dal campo di battaglia. Il primo marzo il leader ceceno Ramzan Kadyrov ha postato un breve video su Telegram in cui un soldato si riprendeva davanti a una linea di carri armati che sferragliavano lungo una strada.
Appena visto il video, un esperto francese di OSINT (l’uso di risorse pubbliche per l’individuazione di informazioni potenzialmente riservate) ha fatto alcune ricerche mirate online, anche tramite software di riconoscimento facciale come il russo FindClone e l’americano PimEyes, trovando tutto sul soldato in questione, scoprendo non solo come si chiamava, ma anche in quale luogo preciso era stato girato quel video. Chi è curioso può leggere tutta l’indagine qui.
Anche il governo ucraino fa ampio uso del riconoscimento facciale in questo conflitto, grazie soprattutto all’aiuto di Clearview, un’azienda statunitense già pesantemente criticata in passato per aver addestrato i suoi algoritmi con foto prese senza permesso da Internet (e recentemente sanzionata dal nostro Garante per la Privacy per 20 milioni di Euro). Secondo Reuters allo scoppio del conflitto fu la stessa Clearview a farsi avanti, offrendo aiuto al governo ucraino. Forte del suo immenso database, in particolare due miliardi di immagini provenienti dal social russo Vkontakte, Clearview consente oggi all’Ucraina di identificare soldati, prigionieri di guerra, caduti al fronte, o anche le persone che attraversano il confine per partecipare agli scontri o per fuggire dalla guerra.
Il riconoscimento facciale è uno strumento molto potente che consente a un’entità centrale di individuare velocemente e con relativa semplicità praticamente chiunque. Decisamente utile durante il conflitto, ma siamo sicuri che a guerra finita il governo dell’Ucraina vorrà farne a meno?
Armi autonome
Arriviamo al punto più temuto ma anche più difficile da analizzare. Nonostante diversi armamenti abbiano procedure automatizzate o semi-automatizzate, non è facile capire quanta libertà sia stata data sul campo di battaglia a tali tecnologie.
Parliamo soprattutto di droni. Quasi assenti durante le prime settimane di guerra, ora entrambe le parti hanno iniziato a usarli in maniera più insistente. Gli ucraini hanno cinquanta squadre di piloti esperti dell’unità Aerorozvidka, che lanciano i loro droni di notte per colpire il nemico quando meno se lo aspetta.
La Turchia prima della guerra avrebbe consegnato all’Ucraina diversi (c’è chi stima dalle 20 alle 50 unità) droni Bayraktar TB2, che supportano sia il volo controllato da remoto, sia il volo autonomo (controllato, quindi, da un sistema di intelligenza artificiale). Fonti ucraine riportano che ulteriori droni TB2 sarebbero arrivati anche a guerra già iniziata. Questi droni si sono dimostrati subito molto utili alle forze ucraine, consentendo loro vittorie inaspettate.
Nonostante la Turchia sia anche il Paese di produzione del STM Kargu-2, il primo drone che secondo un rapporto dell’ONU avrebbe ucciso autonomamente dei soldati in Libia nel 2020, tale modello non sembra sia stato consegnato alle forze ucraine. I TB2 forniti non avrebbero procedure offensive autonome.
Neanche gli Switchblade di AeroVironment, droni statunitensi che recentemente il presidente USA Biden ha promesso di donare all’Ucraina, avrebbero un’AI con “licenza di uccidere”: i droni si limiterebbero a navigare verso gli obiettivi forniti dagli operatori basandosi sui segnali GPS.
Dal lato russo, le forze armate hanno già fatto ampio uso di droni in altri teatri di guerra, come la Siria o il Nagorno-Karabakh. Ad esempio i droni KUB-BLA sviluppati da ZALA Aero, una filiale di Kalashnikov, che detonano all’impatto con l’obiettivo. Per non parlare del noto Uran-9 UCGV, sviluppato dalla 766ma “Impresa di Produzione e Tecnologia” a Nakhabino, vicino a Mosca. L’Uran-9 è un moderno drone di terra usato dalle forze armate russe, progettato per compiti di ricognizione e fuoco di supporto in ambienti urbani ed è controllato da remoto. Entrato in attività nel 2016, il drone può montare due cannoni automatici Shipunov 2A72 da 30mm, una mitragliatrice coassiale 7.62mm, missili anticarro Ataka e fino a 12 lanciarazzi termobarici Shmel-M. L’Uran-9 finora si è distinto soprattutto per le delusioni, in particolare nei test sul campo in Siria. Tuttavia, dopo ulteriori prove e presumibili migliorie, qualche mese fa le forze armate russe hanno rivelato che l’Uran-9 verrà accettato in servizio dalle forze di terra nel corso del 2022, sia per scopi di combattimento sia di ricognizione.
Ma l’Uran-9 in Ucraina per ora non si è visto. Per conoscere quali droni sono impiegati in questa guerra è sufficiente dare un’occhiata ai rottami che si possono trovare al suolo. I primi droni sono stati quelli ricognitivi, ad esempio questo Orlan-10.
Successivamente si sono iniziati a vedere questi KUB-BLA, di cui facevamo menzione prima.
Caricati con 3 chili di esplosivo e sfere di metallo per causare più danni (morti) possibili.
Quanta “intelligenza” c’è in questi droni? I KUB-BLA avrebbero a bordo un sistema di intelligenza artificiale per il riconoscimento degli oggetti, almeno a quanto riferisce il produttore Kalashnikov: “L’ultima tecnologia AIVI (Artificial Intelligence Visual Identification) è un sistema intelligente di rilevamento e riconoscimento di oggetti in tempo reale per l’identificazione di classe e tipo a bordo del drone con copertura completa dell’emisfero inferiore.” In particolare, il sistema di visione artificiale consentirebbe il “riconoscimento e classificazione simultanea di oltre 1000 oggetti statici e in movimento“.
Abbiamo quindi un modello AI direttamente a bordo del drone, ovvero senza la necessità di mandare e far elaborare le immagini alla base, in grado di riconoscere 1000 tipologie di oggetti, ad esempio un’auto da un camion, una persona da una scatola, ecc. Il motivo per cui questi sistemi si implementano a bordo è evidente: consentono una maggiore immediatezza nel riconoscere qualcosa a beneficio di una decisione da prendere sul posto (presumibilmente da parte dell’AI), senza quindi affidarsi a precari segnali radio che potrebbero essere interrotti dal nemico in qualsiasi momento.
Tuttavia, nulla al momento fa pensare che i KUB-BLA siano dotati di un sistema decisionale per selezionare autonomamente l’opzione di piombarsi su un obiettivo ed esplodere. Un algoritmo di classificazione oggetti direttamente a bordo però può far ipotizzare che in futuro questa eventualità possa essere facilmente implementata.
Conclusione
L’uso dell’intelligenza artificiale nella guerra in Ucraina al momento si è concentrato soprattutto nella disinformazione, con la creazione di contenuti artefatti a uso e consumo della propaganda. Si può notare un uso crescente del riconoscimento facciale per scopi di controllo della popolazione (in Russia) e per l’identificazione del nemico (in Ucraina).
Attualmente non abbiamo visto armi completamente autonome nel teatro di guerra. Si sono fatti vedere diversi droni, peraltro arrivati tardi nel conflitto, che presentano elementi di autonomia limitati alla navigazione e al riconoscimento degli oggetti.
È chiaro che a guerra in corso è quasi impossibile ottenere dati affidabili che ci possano far capire con esattezza quale sia l’uso dell’intelligenza artificiale sul campo di battaglia. Forse nelle analisi post-conflitto potranno emergere elementi per comprendere meglio se in determinate azioni belliche si sia fatto uso di procedure di autonomia avanzata, e con quali risultati.
***abbiamo stipulato un accordo con l’autore per la divulgazione di alcuni suoi articoli e interviste estrapolati sal suo sito: Notizie.ai
*Immagine di copertina dal sito Notizie.ai
DONA ORA E GRAZIE PER IL TUO SOSTEGNO: ANCHE 1 EURO PUÒ FARE LA DIFFERENZA PER UN GIORNALISMO INDIPENDENTE E DEONTOLOGICAMENTE SANO
Gli Scomunicati è una testata giornalistica fondata nel 2006 dalla giornalista Emilia Urso Anfuso, totalmente autofinanziata. Non riceve proventi pubblici.
Lascia un commento