L’intelligenza artificiale generativa ha aperto nuove frontiere anche nella produzione di materiale audiovisivo. Più o meno consapevolmente, a tutti è ormai capitato di vedere sui social network o in rete video prodotti mediante software il cui funzionamento sfrutta l’intelligenza artificiale e le cosiddette reti neurali. Queste tecnologie permettono ai computer di apprendere dai dati e di creare audiovisivi sempre più realistici. Grazie a questi strumenti, è possibile produrre sia video artificiali che mostrano persone in contesti mai vissuti, sia tracce audio capaci di imitare con estrema precisione voci reali.
Come vengono creati i video deepfake?
Nati nell’ambito delle produzioni cinematografiche, tali software possono generare situazioni problematiche nel momento in cui servono per produrre video in cui compaiono persone reali o personaggi pubblici coinvolti in azioni che mai hanno svolto o in dichiarazioni che mai hanno pronunciato. Questi video vengono chiamati ‘deepfake’, una parola nuova nel panorama della comunicazione digitale che indica la produzione di contenuti ‘falsificati’ mediante il ricorso all’intelligenza artificiale. I video deepfake sono molto più difficili da smascherare rispetto ai contenuti falsificati in passato, quando si usavano metodi più elementari, come foto e video ritocco. L’uso dell’intelligenza artificiale rende queste manipolazioni estremamente realistiche e più difficili da riconoscere. Inoltre, l’utilizzo di tali software è diventato oggi molto più immediato e accessibile rispetto alle versioni originali. Esistono infatti piattaforme utilizzabili da browser a cui ci si registra gratuitamente (o sfruttando periodi prova) per realizzare, con poco materiale di partenza e semplici comandi, video deepfake. Questa facilità di accesso rischia di renderli uno strumento pericoloso quando capitano nelle mani sbagliate.
I pericoli dei video deepfake: pornografia, cyberbullismo, revenge porn
L’origine stessa della parola deepfake indica che queste tecnologie possono essere usate in modo improprio. Con questo nome si presentava infatti un utente di Reddit (una piattaforma di forum e discussione) per pubblicare un video da lui prodotto mediante IA in cui una nota attrice americana era coinvolta in sequenze pornografiche. In questa tipologia di video i volti di personaggi famosi vengono infatti ‘innestati’ su corpi di attori impegnati in contesti e situazioni a loro estranei. Si veda l’account unreal_robert su TikTok, in cui il famoso attore britannico si mostra in attività domestiche o performance scherzose, in calce alle quali fortunatamente viene precisato che si tratta di un profilo parodico basato sull’utilizzo di IA.
Data la facilità di accesso a tali strumenti, utenti malintenzionati o poco consapevoli possono finire per farne un uso problematico. Un video deepfake creato per fare uno scherzo può sfociare in un atto di vero e proprio cyberbullismo. Il desiderio di umiliare una persona che ci ha rifiutato può portare a episodi di revenge porn, che si aggravano ulteriormente attraverso il ricorso a tecnologie che aumentano crudelmente il livello di verosimiglianza in cui la vittima si vede rappresentata. Il rischio che qualcuno diventi, a sua insaputa, protagonista di un video deepfake è molto concreto. Questo rende ancora più urgente una riflessione sugli usi distorti dell’IA, sia in ambito scolastico che familiare. In questo modo si potrà parlare con i più giovani del senso di vergogna e di isolamento che investono le vittime di un video deepfake, oltre che dei possibili danni alla loro reputazione e delle possibili conseguenze legali.
Deepfake e disinformazione
Affrontare tali temi con i ragazzi ci darà l’opportunità di introdurre anche un’altra importante criticità dei video deepfake, ovvero il loro alto potenziale di creare disinformazione. I video artificiali più sofisticati sono spesso prodotti da chi orchestra vere e proprie campagne di manipolazione dell’opinione pubblica. La verosimiglianza di tali contenuti, associata al fatto che spesso sono visualizzati all’interno di social media dove applichiamo un basso livello di attenzione, porta gli utenti a credere che ciò che vedono sia vero. Se in passato un’immagine o un video potevano essere portati come prova della veridicità di un fatto, oggi la situazione è più complessa. Bisogna avvicinarsi ai contenuti audiovisuali con più circospezione, applicando spirito critico e chiedendosi in che modo, un certo contenuto, anche quando riconosciuto come falso, possa continuare ad esercitare la sua influenza.
Leggi anche:
Come e perché è così importante educare i bambini a riconoscere le fake news