Home / Sintomi / DEEPFAKE

DEEPFAKE

Classe Tecnologia di falsificazione

Livello di diffusione In espansione accelerata


Definizione

Contenuto audiovisivo sintetico generato da intelligenza artificiale che riproduce l’aspetto e/o la voce di una persona reale in modo sufficientemente convincente da essere indistinguibile (o quasi) dal materiale autentico. Non è fotoritocco: è generazione di realtà che non è mai esistita.

Origine del termine

Il termine deepfake nasce nel 2017 su Reddit, dalla combinazione di “deep learning” e “fake”. Un utente con lo pseudonimo “deepfakes” pubblicò video pornografici in cui i volti delle attrici erano stati sostituiti con quelli di celebrità. La tecnologia è esplosa da allora: oggi app gratuite permettono di creare deepfake convincenti in pochi minuti.

Il termine è diventato genericamente sinonimo di “falsificazione AI-generated”.

Evoluzione del concetto

2017 — Primi deepfake pornografici su Reddit. La tecnologia richiede ancora competenze tecniche e potenza di calcolo.

2019 — Democratizzazione. App come FaceApp, Reface rendono la tecnologia accessibile a tutti. Il primo deepfake “politico” significativo: video manipolato di Nancy Pelosi.

2022-2024 — Generazione completa. Sistemi come DALL-E, Midjourney, Sora permettono di generare non solo volti sostituiti, ma scene intere mai esistite. Audio clonato in tempo reale.

Oggi — Indistinguibilità. I migliori deepfake superano la capacità umana di rilevazione. L’era in cui “vedere è credere” è terminata.

«Non siamo pronti per un mondo in cui chiunque può far dire qualsiasi cosa a chiunque.»

Sintomi nel presente

Come riconoscere la minaccia deepfake nella vita quotidiana:

Dubbio radicale Vedi un video compromettente di un politico — e non sai più se crederci. Ma non sai nemmeno se non crederci. La verifica è diventata impossibile per il cittadino comune.

Difesa preventiva “Quel video è un deepfake” diventa difesa standard per qualsiasi contenuto imbarazzante — vero o falso che sia. Il deepfake come alibi universale.

Revenge porn sintetico Non serve più avere foto reali di qualcuno per creare materiale compromettente. Basta il volto — e l’AI genera il resto.

Truffe vocali Ricevi una telefonata dalla “voce” di un familiare che chiede soldi urgenti. La voce è clonata da audio pubblici.

Erosione dell’evidenza Cosa vale una registrazione come prova? Cosa vale un video come documento? L’evidenza audiovisiva perde valore probatorio.

Paralisi epistemica Non sai più cosa credere — e questa incertezza generalizzata favorisce chi vuole negare qualsiasi cosa e chi vuole affermare qualsiasi cosa.

Nota clinica

Il deepfake è l’arma finale della post-verità. Prima, la falsificazione richiedeva competenze, risorse, accesso: i governi, gli studi cinematografici, le agenzie di intelligence potevano falsificare. Ora chiunque può generare realtà sintetiche convincenti.

Ma il danno più profondo non è la produzione di falsi — è la distruzione della fiducia nel vero. Quando qualsiasi video può essere falso, nessun video può essere definitivamente vero. Il “dividendo del bugiardo” (liar’s dividend) permette di negare qualsiasi evidenza reale come “potenziale deepfake”.

Stiamo entrando in un’era in cui la realtà condivisa — basata su evidenze condivise — diventa tecnicamente impossibile. Le conseguenze per la democrazia, la giustizia, il giornalismo sono ancora da comprendere.

Nella collana Stanza101

1984 di George Orwell Winston lavora al Ministero della Verità falsificando documenti — manualmente, laboriosamente. Il deepfake automatizza e democratizza il suo lavoro. Ma c’è una differenza: il Partito controlla tutto l’archivio. Nel mondo dei deepfake, chiunque può falsificare — ma nessuno controlla l’intero sistema.

Democrazia Low Cost di Mario Burri Il PCA non ha bisogno di deepfake: genera i propri dati, la propria realtà, le proprie statistiche. Ma il principio è lo stesso: quando l’autorità può generare qualsiasi “evidenza”, l’evidenza smette di essere base di verifica.

L’estetica del silenzio Il Dizionario delle Ombre è un tentativo di preservare qualcosa di autentico dalla falsificazione. Ma in un mondo di deepfake, anche la conservazione diventa sospetta: come sai che il documento “autentico” non è stato generato?

Letture di approfondimento

Nina Schick, Deep Fakes and the Infocalypse: What You Urgently Need To Know (2020)

Danielle Citron e Robert Chesney, Deep Fakes: A Looming Challenge (2019)

Henry Ajder et al., The State of Deepfakes (Deeptrace, 2019)


«In un mondo dove qualsiasi cosa può essere fabbricata, la verità non ha più casa.»


Condividi:

I Sintomi