Il 4 febbraio 2025, numerose testate italiane di rilievo, tra cui Ansa, RaiNews, La Stampa, la Repubblica e Fanpage, hanno pubblicato una fotografia che ritraeva il primo ministro israeliano Benjamin Netanyahu insieme al presidente degli Stati Uniti Donald Trump e al suo consigliere Elon Musk. L'immagine è stata trasmessa anche dai telegiornali TG1, TG2 e TG3 nelle edizioni del pranzo, presentandola come documentazione dell'incontro avvenuto alla Casa Bianca per discutere della guerra tra Israele e Palestina e delle relazioni bilaterali tra i due paesi. Tuttavia, la foto in questione non era autentica, ma generata tramite intelligenza artificiale. Nonostante ciò, i media italiani l'hanno considerata reale e l'hanno diffusa nei loro articoli sull'incontro tra Netanyahu e Trump.
L'immagine è stata creata da un utente su X (precedentemente noto come Twitter) con il nome "George Orwell" (@OrwellTruth1984), che l'ha condivisa il 3 febbraio 2025, accompagnata da un breve testo in ebraico. Fin da subito, l'utente ha chiarito che si trattava di un'immagine generata con l'IA, inserendo nel primo commento la dicitura "AI", suggerendo appunto che lo scatto non fosse reale, ma realizzato grazie all'intelligenza artificiale. Nonostante questa precisazione, la foto ha iniziato a circolare senza il contesto originale, portando alla sua diffusione come se fosse autentica.
Un dettaglio importante è che l'immagine originale riportava il nome utente di @OrwellTruth1984, segnalando la sua provenienza. Tuttavia, una volta diffusa, questa informazione è stata rimossa, alimentando la percezione che fosse una foto reale. Resosi conto della situazione, l'autore ha pubblicato un secondo post per ribadire che si trattava di un'elaborazione creata con software di intelligenza artificiale. Nonostante questa smentita, molti media hanno continuato a trattare l'immagine come una prova concreta dell'incontro.
Questo episodio evidenzia i rischi associati alla diffusione di contenuti generati dall'intelligenza artificiale, soprattutto quando vengono condivisi senza un'adeguata verifica delle fonti. È fondamentale che i media adottino misure rigorose di fact-checking per evitare la propagazione di informazioni fuorvianti. La rapidità con cui le immagini generate dall'IA possono diffondersi e essere accettate come autentiche sottolinea la necessità di una maggiore attenzione e scetticismo sia da parte dei professionisti dei media che del pubblico.
In un'epoca in cui la tecnologia consente la creazione di contenuti sempre più realistici, diventa imperativo sviluppare strumenti e competenze per distinguere tra ciò che è reale e ciò che è artificiale. La formazione continua dei giornalisti sull'uso e l'abuso delle tecnologie emergenti, insieme a una cultura della verifica e della trasparenza, può contribuire a mitigare gli effetti della disinformazione. Allo stesso tempo, il pubblico deve essere educato a valutare criticamente le informazioni che riceve, riconoscendo che non tutto ciò che appare autentico lo è necessariamente.
Questo caso serve da monito sull'importanza della diligenza nella verifica delle informazioni nell'era digitale e sull'impatto potenziale della disinformazione alimentata dall'intelligenza artificiale sulla percezione pubblica e sulla fiducia nei media.