Tecniche avanzate di intelligenza artificiale permettono di creare video falsi che vanno dal porno a colpi miliardariDeepfake: anche voi potete essere vittima di video falsi quasi perfetti, perché realizzati con tecniche avanzate di intelligenza artificiale che danno loro un elevato livello di verosimiglianza. Questo tipo di materiale viene già usato per crimini che vanno dalla diffusione del “porno di vendetta” a colpi miliardari contro persone e imprese, passando ovviamente per le immancabili fake news che mirano a disinformare e manipolare l’opinione pubblica.
Deepfake per pornografia
Il “porno di vendetta” è il crimine mediante il quale video intimi vengono diffusi su Internet come vendetta nei confronti di qualcuno. Fino a poco tempo fa si trattava di video reali registrati da ex fidanzati/e, ad esempio. Con la tecnica del deepfake, però, si possono creare falsi video pornografici partendo da foto e video normali di praticamente qualsiasi persona.
Uno studio dell’impresa di consulenza Sensity indica che il 96% dei video deepfake attualmente in rete coinvolge pornografia basandosi su immagini ottenuti in modo non consensuale. Molti simulano celebrità in atti sessuali, ma aumenta in modo preoccupante il numero di video falsi e vendicativi di ex partner, e, cosa ancor più grave, di minori per il consumo dei pedofili. Un caso registrato dalla Sensity è quello di un robot dell’applicazione Telegram che riceveva foto di donne e simulava come sarebbero state nude.
Deepfake per notizie false e “prove” costruite
Per mostrare come questa tecnologia possa essere pericolosa, il cineasta Jordan Peele ha prodotto un video-esempio usando immagini dell’ex Presidente statunitense Barack Obama che parla del film Black Panther e critica il Presidente Donald Trump. Chi vede il video non pensa che sia falso, tanto le immagini sembrano naturali.
È possibile, ad esempio, falsificare discorsi, presunte confessioni o dichiarazioni polemiche, e queste falsificazioni verosimili possono coinvolgere non solo politici, imprenditori, celebrità e altre persone influenti nella vita sociale, ma chiunque: colleghi di lavoro, parenti, vicini, e anche compagni di classe, visto che gli adolescenti probabilmente passeranno a usare questa tecnica man mano che ne aumenterà la popolarità.
Oltre a questo, video ragionevolmente convincenti possono bastare per impedire la condanna di un criminale, o peggio ancora per condannare un innocente.
Leggi anche:
Cosa sono le fake news, e come so se sto peccando condividendole?
Deepfake per colpi ed estorsioni
Se sono già frequenti le false “prove di sequestro” via telefono tentando di estorcere denaro a genitori e figli sprovveduti e facilmente impressionabili, immaginate la catastrofe di video che simulano la persona tenuta in ostaggio, o che mostrano apparentemente un familiare o un amico in una situazione normale e spontanea che chiede di passare dati personali sensibili.
La tecnica permette perfino di creare persone inesistenti: le false identità virtuali possono essere utili per un’ampia gamma di frodi, dall’apertura di conti bancari in fintechs alla manipolazione della biometria di una persona reale.
Si può identificare un video deepfake?
Sì, ecco alcuni indizi:
- Movimenti poco naturali degli occhi
- Espressioni facciali dissonanti dalla situazione in questione
- Capelli dall’aspetto rigido
- Volto non allineato con il collo
- Aspetto cancellato alla giuntura delle parti del corpo, come collo e testa.
Assistere al video con velocità ridotta può favorire l’individuazione delle manipolazioni. Le ricerche su Google possono poi aiutare a trovare la versione originale delle immagini adulterate.
Il problema è che la tecnica evolverà necessariamente, risolvendo i limiti e i difetti attuali e rendendo sempre più difficile l’individuazione di video deepfake. Sarà imprescindibile considerare i video solo come una parte del puzzle da costruire per stabilire la veracità o meno di un fatto.
Con informazioni di Techtudo