Deepfake. Case studies

deepfake (deep fake) s. m. inv. Filmato che presenta immagini corporee e facciali catturate in Internet, rielaborate e adattate a un contesto diverso da quello originario tramite un sofisticato algoritmo. ♦ I fake creati con questa app sono già stati diffusi come veri su altri siti; un deepfake di Emma Watson che si fa una doccia insieme a un’altra ragazza è stato ricaricato su CelebJihad – un sito porno che raccoglie foto e video di celebrità e che posta regolarmente immagini sottratte alle celebrità stesse – così come una scena hard di una pornostar a cui è stata messo il volto di Daisy Ridley de Gli ultimi jedi. (Michele Boroni, Wired.it, 26 gennaio 2018, Attualità) • Qualche mese fa il popolare sito Mashable ha definito il deep fake (o anche deepfake, senza spazi) “l’ultima crisi morale di internet”, offrendo una definizione tecnologica puntuale del fenomeno: “Un nuovo tipo di video con face-swap (scambi di viso) realistici”. In breve, si legge che si tratta di elaborazioni basate su di un software che cerca un “terreno comune” tra due volti per incollare poi l’uno sull’altro, in modo dinamico. (Eugenio Spagnuolo, Focus.it, 26 luglio 2018, Tecnologia).
Dall’espressione inglese deep fake, che incrocia la locuzione s.le deep learning (‘insieme di tecniche che permettono all’Intelligenza artificiale di imparare a riconoscere le forme’) con il s. fake (‘falso, notizia falsa’).
[Fonte: treccani.it, Neologismi (2018)]

 

Il deepfake è una tecnica per la sintesi dell’immagine umana, basata sull’intelligenza artificiale. È usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa. La parola “deepfake” è stata coniata nel 2017.
La tecnica del deepfake è stata anche usata per creare falsi video pornografici ritraenti celebrità, ma anche per il revenge porn. Il deepfake può anche essere usato per creare fake news e bufale.
Il termine “deepfakes” è nato alla fine del 2017 da un utente di Reddit chiamato “deepfakes.” Lui, come altri utenti nella sezione r/deepfakes di Reddit, condividevano i deepfakes che creavano; in molti dei video venivano scambiati i volti delle celebrità con quelli di attrici in video pornografici, mentre i contenuti non pornografici includevano molti video ritraenti il volto dell’attore Nicolas Cage inserita in diversi film. Nel dicembre 2017, Samantha Cole pubblicò un articolo su r/deepfakes su Vice, il quale ha attirato la prima attenzione ai deepfake che venivano condivisi nelle comunità online. Sei settimane dopo, Cole scrisse in un articolo dell’incremento della falsa pornografia assistita dall’intelligenza artificiale. Nel febbraio del 2018, r/deepfake fu bannata da Reddit a causa della condivisione di pornografia involontaria, ed altri siti web bannarono a loro volta l’uso dei deepfake per pornografia involontaria, incluso Twitter ed il sito Pornhub.
[Fonte: it.wikipedia.org]

 

“La macchina da presa mente in continuazione, mente ventiquattro volte al secondo.”
– Martin Scorsese

 

 

 

 

 

 

 

 

 

 

 



L'articolo che hai appena letto gratuitamente a noi è costato tempo e denaro. SOSTIENI RAPPORTO CONFIDENZIALE e diventa parte del progetto!





Condividi i tuoi pensieri

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.