Di Luca Sambucci
Stamattina ho ricevuto nella mia casella di posta un report di Sensity, azienda un tempo nota come Deeptrace Labs, che presentava i risultati di un’indagine su un bot di Telegram che usa i deepfakes per “spogliare” quasi in tempo reale le persone ritratte all’interno di normali fotografie, inviategli da utenti in tutto il mondo (ma soprattutto dalla Russia, dove il servizio è già abbastanza conosciuto).
Del report si è occupata anche Rosita Rijtano per Repubblica, che ha avuto modo di leggerlo in anteprima.
Delle modalità operative del bot potete leggere nell’articolo di Sensity (invero piuttosto scarno) o nel pezzo della Rijtano.
Ma partiamo da cosa c’è di nuovo: niente, se non la facilità di fare tutto attraverso Telegram. Questo genere di “servizi” infatti esistono da tempo e sono fruibili con una facilità estrema. Ne parlava Vice più di un anno fa e online c’è almeno un sito (che evito appositamente di linkare) dove è possibile scaricare un software che fa le stesse cose: inserisci le foto di una persona e il programma te le restituisce con la persona denudata più o meno bene (per risultati migliori gli stessi sviluppatori suggeriscono di caricare immagini con più pelle scoperta possibile, come ad esempio foto prese al mare).
Da un punto di vista tecnico quello che il software fa è tentare di ricreare le parti di corpo coperte dalla stoffa, di conseguenza le nudità non saranno esattamente quelle della persona ritratta, bensì semplicemente delle parti di corpo umano così come se le immagina la rete neurale generativa del programma. Non che questo faccia molta differenza per gli “utilizzatori”.
Nonostante tutto, quella appena descritta non è la tipologia di deepfakes più diffusa. I deepfakes classici in genere usano solo il volto della persona “bersaglio”, sostituendolo a quello di un attore o attrice. Possono essere usati per inserire il volto della persona desiderata all’interno di video hard, ma anche per sostituire un attore a un altro per vedere che figura avrebbe fatto in un determinato film (sono famosi quelli di Nicolas Cage).
Mettiamo le cose in chiaro, purtroppo questo genere di abusi non sarà prevenibile. Quello mi aspetto è l’inevitabile deriva che vedrà la tecnologia dei deepfakes usata per scopi di pornografia personalizzata, revenge porn, ricatti, attacchi alla reputazione, ecc. Anche il report di Sensity afferma che il 70% delle vittime sono privati cittadini, mentre solo il restante 30% sono celebrità.
Fortunatamente esistono già metodi che consentono di individuare i deepfakes, soprattutto quelli “artigianali” e realizzati in maniera automatizzata. Ma se questo potrà in qualche modo venire in aiuto delle vittime di ricatto, chiarendo la loro estraneità alle immagini hard, non salverà le persone i cui volti e corpi saranno usati indebitamente per confezionare materiali pornografici personalizzati, a uso e consumo di singoli fruitori.
***Abbiamo stipulato un accordo con l’autore, Luca Sambucci, per la diffusione dei suoi articoli. L’articolo originale si trova al seguente link: notizie.ai
Foto di copertina: L’attrice israeliana Gal Gadot è stata la vittima inconsapevole di uno dei primissimi video deepfakes a luci rosse (Foto di Gage Skidmore, CC BY-SA 2.0)
DONA ORA E GRAZIE PER IL TUO SOSTEGNO: ANCHE 1 EURO PUÒ FARE LA DIFFERENZA PER UN GIORNALISMO INDIPENDENTE E DEONTOLOGICAMENTE SANO
Gli Scomunicati è una testata giornalistica fondata nel 2006 dalla giornalista Emilia Urso Anfuso, totalmente autofinanziata. Non riceve proventi pubblici.
Lascia un commento