Tutti sappiamo chi è Albert Einstein. Tutti abbiamo presente almeno una sua fotografia. Tutti la stessa: è quella che lo ritrae in primo piano con una visibilissima lingua di fuori. L’abbiamo talmente presente che non è necessario che io la inserisca in questo articolo, e neanche che vi indichi un link ad essa: ciascuno di voi l’ha prontamente estratta dal proprio database mentale e la sta già visualizzando.
Si tratta di una delle immagini più riprodotte del secolo scorso, la quale oggi si presta particolarmente per una riflessione su un tema che in questo momento è molto più “potente” di quanto lo fosse nell’epoca in cui è stata scattata: il rapporto tra noi, i deep fake e la realtà.
Occorre però procedere per gradi.
Quell’immagine di Einstein è diventata virale nel mondo pre-web molto prima che la parola “virale” entrasse nel vocabolario comune, e rappresentava già un meme probabilmente prima che Richard Dawkins coniasse quel termine per la prima volta nel 1976, nel capitolo 11 del suo The selfish gene.
Nel diventare virale, la foto di Einstein con la linguaccia ha contribuito certamente molto alla creazione nell’immaginario collettivo dell’idea di Einstein scherzoso, giocoso e perennemente buontempone, e quindi a identificarlo in una figura molto empatica. Probabilmente Einstein aveva davvero nella sua personalità alcuni tratti di quel tipo, e non è mia intenzione mettere in dubbio la grandezza della sua persona: sarei onorato anche solo di somigliargli allo 0,5 per cento.
Ma il punto fondamentale è che quell’immagine, se contestualizzata, ha poco a che fare con il contenuto che di essa è stato sempre percepito, e anzi può essere considerata a suo modo l’antenata di un deep fake, nonostante sia autenticissima dal punto di vista tecnico e non abbia avuto neanche un millimetro quadrato interpolato.
Quello scatto infatti ha una storia ben tracciata, che è rivelatrice di come ciò che è dietro una fotografia possa essere diverso da ciò che l’immagine trasmette. La sua vera vicenda si trova facilmente in Rete, riportata da fonti certe e attendibili. È stata scattata il 14 marzo 1951 a Princeton dal fotografo Arthur Sasse. Era il giorno del settantaduesimo compleanno di Einstein e i colleghi gli avevano organizzato una festa. Lui era già una celebrità, e dunque il giorno sul posto c’era una grande quantità di giornalisti desiderosi di ottenere sue dichiarazioni e fotografie. A fine serata, stanco e anche un po’ estenuato per l’eccesso di attenzione su di sé, stava entrando nell’automobile che lo avrebbe riportato a casa, e il fotografo Sasse gli ha chiesto di posare per uno scatto. Lui ha tirato fuori la lingua in un atto di sfinimento e stress, come tutte le fonti riferiscono. Insomma, non un gesto di ilarità e di simpatia, ma un infastidito “Adesso però basta”.
La fotografia però è passata nell’immaginario collettivo con un messaggio diverso, quello della posa divertita e rilassata, l’inverso di ciò che era.
In questo senso, la foto di Einstein può essere considerata un “deep fake ante litteram”. Non perché avesse qualcosa di “falso” a livello strutturale – anzi non vi era stata alcuna manipolazione – ma perché il messaggio trasmesso dall’immagine non corrispondeva alla realtà oggettiva, bensì al suo inverso; potremmo definirlo un deep fake “concettuale”.
Questa storia oggi ci è molto utile per capire alcune dinamiche attuali. La ragione è che questa fotografia è stata diffusa per decenni senza che fosse posta in discussione l’idea apparente che il personaggio fosse colto in un momento di gioco e ilarità (cioè l’inverso del suo stato d’animo di quell’istante). Vale a dire che l’immagine ha retto senza che la sua motivazione reale, i suoi retroscena, la sua spiegazione razionale e controintuitiva, fossero indagati e conosciuti dalla generalità delle persone.
Oggi, nel 2025, probabilmente questo non accadrebbe. Infatti, una fotografia così insolita e bizzarra non avrebbe un’accoglienza altrettanto acritica. Se Einstein fosse vivente attualmente, e quella foto fosse stata scattata e diffusa pochi giorni fa per la prima volta attraverso i social, certamente la guarderemmo con un filo di sospetto: saremmo animati dal dubbio di trovarci di fronte a un possibile deep fake.
Da quando, pochi anni fa, le più celebri intelligenze artificiali generative – Midjourney, Dall-E, Firefly e le loro simili – hanno iniziato a “regalarci” immagini tanto false quanto incredibilmente realistiche come quelle del Papa con il Moncler (forse è stato quello il punto di svolta), la domanda “Sarà forse un deep fake?” diviene sempre più naturale e automatica davanti ad una fotografia atipica e stramba. Poi magari si perviene alla convinzione che l’immagine è reale, ma il check mentale del domandarsi se mai possa essere la creazione di un’intelligenza artificiale è quasi un passaggio obbligato e, soprattutto, lo diventerà sempre più.
Quindi forse dobbiamo ringraziare i deep fake che, paradossalmente, hanno aumentato il nostro senso critico, non lo hanno diminuito. Hanno accresciuto la nostra capacità di essere scettici di fronte a immagini insolitamente stravaganti. Infatti, conoscendo le potenzialità dell’intelligenza artificiale, sappiamo che un’immagine anche molto realistica può non essere la fedele rappresentazione di una qualche realtà oggettiva.
Prima dell’epoca dell’intelligenza artificiale, esistevano ugualmente i falsi raffinati (o le immagini, pur non false, ma che veicolavano messaggi differenti dalla realtà, come nel caso di Einstein), frutto dell’opera di uomini. Esse però non incontravano altrettanto facilmente quel velo di sano scetticismo di chi, osservandole, si chiede prima di tutto “sarà forse un falso?” Certo, magari accadeva che qualcuno se lo domandasse, ma avveniva in modo inversamente proporzionale a quanto l’immagine fosse ben realizzata, e certamente non in maniera sistematica e abituale come avviene invece nell’epoca attuale, nella quale sta diventando sempre più facile che passi per deep fake un’immagine reale, piuttosto che il contrario.
I deep fake quindi ci allenano e ci rendono più propensi a discernere. È uno dei motivi per i quali l’ingresso dell’intelligenza artificiale nella nostra società, se accolta nel modo giusto, ci migliora.
Tutto questo ha anche un risvolto di tipo più strettamente giuridico. L’Artificial Intelligence Act europeo del 2024, all’articolo 50, comma 3, obbliga i deployer, cioè coloro che utilizzano un’intelligenza artificiale a scopo professionale o istituzionale, a segnalare in modo chiaro i deep fake, quindi per esempio ad apporre su di essi contrassegni o watermark. La norma ha anche l’accortezza di precisare che la segnalazione può essere meno invasiva se il contenuto ha scopi “artistici, creativi, satirici o fittizi”, in modo che un eventuale watermark non giunga a “ostacolare l’esposizione o il godimento dell’opera” creata dall’intelligenza artificiale. Ma proprio quest’ultima precisazione, nel momento stesso in cui ribadisce che la segnalazione può essere tale da non alterare l’immagine, conferma che il deep fake deve sempre e comunque essere segnalato.
Una norma così, certamente valida, opportuna e attesa da tanti, è stata scritta oggi per le intelligenze artificiali. Ma non è mai esistita una disposizione analoga in passato per i “deep fake umani”, per le foto false e fuorvianti create nei decenni scorsi con abilità da falsari non-artificiali, che hanno ingannato generazioni di persone e a volte creato danni incalcolabili: si pensi a quanto alcune pseudoscienze si siano sempre retta su immagini artefatte antesignane dei deep fake.
Anche in questo caso, per quanto ci possa sembrare strano, dobbiamo ringraziare i deep fake che, dove già non aiutano il senso critico delle singole persone, hanno condotto il legislatore a creare un’ottima norma volta ad arginare la diffusione dei falsi, come avrebbe potuto fare molto prima ma mai aveva fatto.