Tra risate e violenza - Singola | Storie di scenari e orizzonti

Tra risate e violenza

Una tecnologia quasi impossibile da arginare e regolamentare. I casi delle celebrity e degli abusi. Quando il pionierismo di un'immagine può colpire e ferire, siamo entrati nel deep fake.

Lucia Tedesco

è una giornalista che collabora con diverse testate. Scrive soprattutto di società, cultura digitale, filosofia e cinema. Ha fondato il blog a tema cinematografico Lost in Cinema.

Il web, i social, sono spazi digitali in cui abitiamo in un senso quasi pionieristico. Ogni giorno viviamo in un mondo virtuale di cui siamo tutti noi, nel nostro piccolo, artefici e coabitanti. L’aspetto pionieristico, per quanto sia stato romanticizzato in passato, è tramontato non appena ci si è trovati dinanzi alla fattualità che quegli stessi spazi, liberi, sociali, spontanei, erano stati irrimediabilmente inquinati da una cultura tossica, intimidatoria, minacciosa. È la realtà che dà forma agli spazi digitali; il rischio, che è ogni giorno davanti i nostri occhi, è che questo mondo sia diventato il luogo di interiorizzazione delle più riprovevoli discriminazioni sociali, veicolate attraverso le camere d’eco, il cui peggior traguardo è aver ottenuto il potere di amplificarle.

Secondo i dati di una ricerca commissionata da Amnesty all’istituto IPSOS MORI che ha coinvolto circa 4000 donne di età compresa tra i 18 e i 55 anni, 911 donne hanno dichiarato di aver subito molestie o minacce online, 688 delle quali sui social media. La discriminazione e la violenza contro le donne sono riuscite a fendere il mondo digitale, i cui abissi hanno raggiunto livelli in indicibile turpitudine, a partire dai gruppi e le chat di Telegram, alla condivisione non consensuale di materiale intimo, sino ad arrivare a uno strumento di cyberbullismo di cui non bisogna sottovalutare le dinamiche e la pericolosità, il deepfake porn.

Nel 2017 faceva irruzione sul web e sui social per la prima volta questo termine, che avrebbe di li a poco preso piede e sarebbe diventato estremamente presente nel dibattito politico e sociale. Il deepfake è una parola coniata per indicare la tecnica per la sintesi dell'immagine basata sull’IA, che ha iniziato a diffondersi quando un utente di Reddit ha utilizzato lo pseudonimo “Deepfakes” per pubblicare sul sito finti video porno di persone famose.

Il deepfake porn è uno strumento pericoloso, un sistema di intelligenza artificiale che manipola registrazioni audio e video e posiziona volti reali sui corpi di attori porno, donne per la maggior parte, la cui immagine viene utilizzata senza il loro consenso. Uno studio rilasciato dai ricercatori di Sensity, una società di ricerca che tiene traccia dei video deepfake online, ha mostrato come la tecnologia per la realizzazione di questi deepfake è sempre più diffusa e a portata di click: secondo questa ricerca a Luglio del 2019 erano poco più di 14.500 i video DeepFake nel mondo, di cui il 96% porno.

Il primo deepfake che ha catturato l'attenzione è stato quello a danni dell'attrice Daisy Ridley e Gal Gadot i cui volti sono stati sovrapposti a quello della protagonista di un film pornografico. Solo qualche mese dopo è stato utilizzato il volto dell’attrice britannica Emma Watson per un fake porn che in una manciata di giorni è stato visto 23 milioni di volte. Un’altra celebrità presa particolarmente di mira da questo fenomeno è Scarlett Johansson che nel 2018 ha rilasciato un’intervista al Washington Post dichiarando il suo totale sconforto: “Cercare di proteggersi da Internet e dalla sua depravazione è fondamentalmente una causa persa. Penso sia uno sforzo inutile, dal punto di vista legale, perché Internet è un enorme cunicolo spazio-temporale oscuro che ingurgita se stesso”.

Di recente una poetessa inglese, Helen Mort ha scoperto un sito in cui erano presenti foto di lei nuda, foto che non aveva mai scattato. Ciò che l'ha scioccata di più è stato che le immagini erano basate su foto, datate tra il 2017 e il 2019, che erano state prese dai suoi account social privati, incluso un profilo Facebook che aveva cancellato. L’autore del reato aveva caricato queste immagini non intime, come foto di vacanze e foto di lei da adolescente, e ha incoraggiato altri utenti a modificarle: alcune di queste erano spaventosamente realistiche.

La stragrande maggioranza dei deepfake disponibili online riguarda celebrità, soprattutto donne; fake porn raffiguranti l'attrice Emma Watson sono tra i più popolari, insieme a quelli che hanno coinvolto Natalie Portman, Michelle Obama, Ivanka Trump, Kate Middleton, immagini postate senza il consenso con lo scopo di mettere in imbarazzo, annichilire, intimidire. Un video potrebbe non essere reale, ma il danno psicologico lo è sempre.

Com’è accaduto alla giornalista investigativa Rana Ayyub, che è stata il bersaglio di una campagna di disinformazione e di una gogna mediatica nata per screditarla e per delegittimare il suo lavoro. Un video fake di due minuti, dove era protagonista di un atto sessuale, ha cominciato a girare sul web. In poco tempo è finito su tutti i telefoni in India. La giornalista ha infatti dichiarato: “You can call yourself a journalist, you can call yourself a feminist but in that moment, I just couldn't see through the humiliation”. Quel video è stato fabbricato e manipolato solo per umiliarla e ridurla al silenzio. Un fenomeno di questo tipo è profondamente radicato in una cultura misogina: la sessualizzazione, la mercificazione del corpo delle donne e la cultura dello stupro sono centrali all’interno di questa forma sofisticata di sessismo digitale, il cui unico scopo è mettere a tacere, soprattutto quando una donna ricopre una posizione di rilievo o di potere. La vita della persona in questione, come spesso accade quando viene condiviso materiale intimo non consensuale, viene completamente stravolta e il futuro è compromesso, considerato che quei video o quelle immagini potenzialmente possono continuare a rimbalzare sul web.

L'abuso digitale che hanno subito Helen Mort, Rana Ayyub e anche altre persone (spesso ignare e inconsapevoli di quello si muove sul web) e la condivisione di immagini pornografiche alterate digitalmente, dovrebbe essere considerato un crimine, un crimine che avviene in modo invisibile e impunito. Quello che bisogna tenere a mente quando si parla di condivisione non consensuale di materiale intimo, anche e soprattutto nella sua accezione deepfake, è la connessione diretta con il consenso, i diritti digitali e la responsabilità delle piattaforme: usare il viso o il corpo di qualcuno senza la sua approvazione è una violazione del consenso.

È sempre più evidente, dentro e fuori i social, che esiste una fetta marcescente della società che vuole le donne, queste donne, forse tutte le donne impotenti, punibili, sacrificabili, una società che non teme di lanciare un messaggio chiaro, ovvero: guarda quello che possiamo farti. Come ha giustamente dichiarato Adam Dodge, fondatore di EndTAB, un’organizzazione no profit che denuncia gli abusi virtuali, “È una questione di violenza contro le donne”.

Il deepfake è un’arma politica molto pericolosa, uno strumento di cyberbullismo usato per generare fake news, bufale e truffe, oltre che essere destinato a scompaginare la vita di moltissime persone. Negli ultimi giorni il volto dell’attore Tom Cruise è comparso su TikTok, raggiungendo quasi 12 milioni di visualizzazioni in poco tempo. L’attore statunitense è stato il protagonista di un video in cui lo si può osservare mentre gioca a golf, inciampa, ride e si misura con un gioco di prestigio servendosi di una moneta. Ovviamente non si tratta veramente di Tom Cruise, ma di una serie di deepfake molto accurati, realizzati dal visual artist Christopher Ume e dal sosia di Tom Cruise, Miles Fisher, talmente credibili da aver ingannato e suscitato l’interesse di moltissime persone.

Nel saggio di Nina Schick, Deep fakes and the infocalypse: what you urgently need to know, l’autrice spiega quanto il nostro ecosistema di informazioni sia inquinato e pericoloso, un sistema che la scrittrice definisce Infocalypse (termine coniato per la prima volta dal tecnologo statunitense Aviv Ovadya nel 2016 per spiegare quanto il nostro mondo, basato sulle piattaforme, sia vulnerabile alla propaganda, alla disinformazione) e che minaccia di compromettere una parte fondamentale del discorso umano, la credibilità dei fatti.

Secondo l’autrice, dalla sua nascita su Reddit, il deepfake porn si è sviluppato in modo indipendente, e ha distrutto vite di persone note e meno note, attraverso l’umiliazione e la paura che derivano dall'essere prese di mira in questo modo. È diventato fin troppo facile realizzare nudi di qualsiasi donna: esistono molte app per questo scopo esplicito, bandite e riemerse ripetutamente.

Questa tecnologia è difficile da regolamentare anche perché ci sono molti usi legittimi dei deepfake, ad esempio nel cinema, nell’intrattenimento. Sebbene non tutti i video deepfake siano di natura pornografica, molti dei video condivisi sono espliciti e possono essere dannosi per le persone i cui volti vengono scambiati. Secondo Danielle Citron, professoressa alla Boston University Law School e studiosa di privacy, i deepfake e il loro uso nel porno non consensuale sono un presagio di ciò che sta per emergere, ovvero un problema più ampio dei diritti civili: “Per il bene di persone come Rana Ayyub e per il bene della nostra democrazia, dobbiamo agire immediatamente”.

Purtroppo in Italia non c’è una norma specifica che disciplini un fenomeno del genere. Una delle poche azioni in merito, in attesa che questa lacuna legislativa venga al più presto colmata con una norma specifica, è stata compiuta ad ottobre 2020 dal Garante della privacy, che ha aperto un’istruttoria nei confronti di Telegram, per il software disponibile sul canale social che impiega l’intelligenza artificiale per spogliare e ricostruire l’aspetto che una persona avrebbe sotto gli indumenti. Si legge nel comunicato che “Le gravi lesioni alla dignità e alla privacy a cui l’uso di un software simile espone le persone, soprattutto se minori, sono evidenti, considerati anche il rischio che tali immagini vengano usate a fini estorsivi o di revenge porn e tenuto conto dei danni irreparabili a cui potrebbe portare una incontrollata circolazione delle immagini, fino a forme di vera e propria viralizzazione. La facilità d’uso di questo programma rende, peraltro, potenzialmente vittime di deep fake chiunque abbia una foto sul web”.

Hai letto:  Tra risate e violenza
Globale - 2021
Societá
Questo articolo fa parte della issue:
#2 Deep, fake
Lucia Tedesco

è una giornalista che collabora con diverse testate. Scrive soprattutto di società, cultura digitale, filosofia e cinema. Ha fondato il blog a tema cinematografico Lost in Cinema.

Pubblicato:
22-03-2021
Ultima modifica:
17-03-2021
;