Bella Thorne vittima di deepfake: video dopo morte del padre diventa filmino a luci rosse

di Alessandro Camilli
Pubblicato il 19 Novembre 2019 9:36 | Ultimo aggiornamento: 19 Novembre 2019 9:36
Bella Thorne vittima di deepfake: video girato dopo la morte del padre diventa filmino a luci rosse

Bella Thorne in una foto Instagram

ROMA – Possono una smorfia di dolore o le lacrime di una perdita trasformarsi in un orgasmo? Sì, e persino senza che il proprietario di queste emozioni ne sappia nulla. E’ l’ultima frontiera del fake, del falso prodotto on line e si chiama non a caso deepfake: ovvero falso profondo, la tecnologia con cui si possono manipolare video di inconsapevoli protagonisti per ottenerne quasi qualsiasi cosa. E senza possibilità che un occhio non esperto se ne accorga. A riportare agli onori delle cronache questa tecnologia e il suo perverso utilizzo è il caso di Bella Thorne.

Il video in cui si mostrava sconvolta per la morte del padre è stato preso e trasformato in un filmato po***. Non il primo. L’attrice e cantante, 22 anni, è oggi la celebrità in assoluto più sfruttata dai deepfake a sfondo ses***le, ma non certo l’unica. Quello che accade spesso a molti, dunque, è di diventare protagonisti di video mai realizzati, attori di azioni mai compiute. “Perché diavolo fanno cose del genere? Perché rendono accessibili tecnologie simili quando sanno che gran parte del mondo poi le sfrutterà? – si è domandata, furiosa, la Thorne durante una intervista per la BBC – . Mentre raccontavo quanto stavo male per mio padre, dicevo che mi mancava, loro hanno preso quelle immagini e le hanno aggiunte al corpo di una ragazza che si stava mast***ando. E questo video è andato ovunque e tutti hanno pensato che in quel filmato porno fossi realmente io”.

Non tutti i deepfake producono falsi po***, anche se in questa categoria rientra la casistica più numerosa: secondo un dato di Deeptrace Labs infatti, il 96% dei deepfake pubblicati online costituisce pornografia non consensuale, per lo più ai danni di celebrità. Ma ci sono anche deepfake ‘divertenti’, come quelli in cui il programma in questione mette in bocca al politico di turno una canzone (celeberrimo è il caso di un Matteo Renzi canterino all’epoca in cui era presidente del Consiglio). Video questi che possono forse non divertire tutti ma che certo, a differenza di quelli declinati in pornografia, sono innocui.

Eppure non è solo la po***grafia a preoccupare perché, grazie a questa tecnologia, si possono mettere in bocca a chiunque non solo canzoncine divertenti, ma anche parole mai dette. Una possibilità che non semplifica e anzi va a pesare ancora di più sulle fake news, sulle bufale che acquisiscono grazie al deepfake uno strumento in più per raccontare una realtà che reale non è.