Attenzione! Questo articolo è stato scritto più di un anno fa!
!
Esclusiva

November 20 2023.
 
Ultimo aggiornamento: July 29 2024
Un sito generato dall’intelligenza artificiale diffonde una bufala virale sul suicidio del presunto psichiatra di Netanyahu

Un articolo di un sito generato dall’intelligenza artificiale ha alimentato una narrazione infondata sull’inesistente psichiatra del primo ministro israeliano

Un sito di notizie generato dall’intelligenza artificiale sembra essere la fonte della notizia falsa secondo cui il presunto psichiatra del primo ministro israeliano Benjamin Netanyahu sarebbe morto suicida. La vicenda fa pensare che gli strumenti di intelligenza artificiale generativa siano già utilizzati da attori malintenzionati per diffondere misinformazione.   

L’affermazione falsa sembrerebbe essere emersa il 6 novembre su un sito chiamato Global Village Space, che si presenta come un sito di notizie pakistano. L’articolo, intitolato “Lo psichiatra del primo ministro israeliano si suicida”, afferma che “il dottor Moshe Yatom, un noto psichiatra israeliano conosciuto per il suo lavoro nella cura di gravi malattie mentali, è stato trovato morto nella sua casa di Tel Aviv”. L’articolo aggiunge che Yatom aveva lasciato una “devastante lettera d’addio che riguardava” Netanyahu. Questa affermazione si è rapidamente diffusa su diverse piattaforme in varie lingue ed è stata condivisa da migliaia di utenti dei social network.

In realtà, una ricerca di NewsGuard non ha trovato nessuno psichiatra in Israele chiamato  Moshe Yatom e, in generale, nessun individuo con un nome simile. Global Village Space sembra aver utilizzato l’intelligenza artificiale per riscrivere un articolo satirico che prendeva di mira Netanyahu, sfruttando il crescente interesse per la guerra in Medio Oriente.  

Infatti, l’articolo di Global Village Space sembra aver usato come fonte un articolo satirico dell’8 giugno 2010 pubblicato su Legalienate, che si descrive come un sito di “notizie, commenti e satira”. I due articoli hanno infatti somiglianze significative e Global Village Space aveva già utilizzato l’IA per riscrivere contenuti originariamente pubblicati altrove. Nell’agosto 2023, NewsGuard aveva infatti inserito GlobalVillageSpace.com tra i 37 siti che, stando alla sua analisi, utilizzavano l’IA per rielaborare contenuti pubblicati da testate e siti di notizie tradizionali come il New York Times, senza citare l’articolo originale. 

Nel maggio 2023, NewsGuard aveva identificato per la prima volta Global Village Space come un sito generato dall’IA. Si tratta infatti di uno dei siti che NewsGuard definisce ‘Unreliable AI-Generated News sites’ (UAIN), cioè siti che pubblicano prevalentemente notizie generate dall’intelligenza artificiale, adottando una minima supervisione editoriale e senza divulgare in modo trasparente questa pratica ai loro lettori. (È possibile consultare il Centro di monitoraggio sugli UAIN di NewsGuard qui). Come rilevato nel Centro di monitoraggio, gli UAIN ripropongono regolarmente vecchi contenuti presentandoli come nuovi.

L’articolo generato dall’intelligenza artificiale di Global Village Space conteneva informazioni molto dettagliate, nonostante la notizia fosse completamente inventata. Il pezzo scritto dall’IA sosteneva infatti che la nota in cui veniva annunciato il suicidio “dipingeva un quadro cupo di un uomo che aveva cercato per nove anni di penetrare la mente enigmatica di Netanyahu, solo per essere sconfitto da quella che lui definiva una ‘valanga di bugie’”. In una sottosezione intitolata “Voci sconvolgenti del diario”, l’articolo sosteneva che il medico avesse scritto che “Netanyahu equiparava l’Iran alla Germania nazista e si spingeva fino a definire il programma di energia nucleare iraniano una ‘camera a gas volante’ ricordando che tutti gli ebrei vivono per sempre ad Auschwitz”. L’articolo faceva anche riferimento a un presunto manoscritto incompiuto di un libro del medico che, secondo l’articolo, “fa luce sulle straordinarie sfide che Yatom ha affrontato nel tentativo di guidare il suo illustre paziente verso una comprensione razionale della realtà”.

In seguito alla pubblicazione delle affermazioni false da parte di Global Village Space, il Canale Due dell’Islamic Republic of Iran Broadcasting ha mandato in onda un servizio intitolato “Lo psicologo di Netanyahu si è suicidato”. Secondo la traduzione di NewsGuard, il conduttore Mohammadreza Shahbazi ha affermato in lingua farsi: “Il terapeuta di Netanyahu ha trascorso anni con quest’uomo e poi si è suicidato”. Shahbazi ha poi esortato gli spettatori a “leggere il resto”, indirizzandoli al sito Global Village Space.

Un sito generato dall'intelligenza artificiale diffonde una bufala virale sul suicidio del presunto psichiatra di Netanyahu
Il conduttore televisivo Mohammadreza Shahbazi ha citato il sito di notizie inaffidabile in lingua inglese GlobalVillageSpace.com, generato dall’intelligenza artificiale, per dare la notizia – falsa – del suicidio dello “psichiatra” di Netanyahu. (Screenshot di NewsGuard)

Il servizio si è diffuso dopo che per settimane i media di Stato iraniani hanno dipinto Netanyahu come mentalmente instabile dopo gli attacchi terroristici del 7 ottobre contro gli israeliani da parte di Hamas – gruppo armato e finanziato dall’Iran – e in seguito alla conseguente dichiarazione di guerra di Israele contro Hamas e l’invasione di Gaza.

Non è la prima volta che i media iraniani diffondono l’affermazione falsa secondo cui lo “psichiatra” di Netanyahu sarebbe morto suicida. In un articolo del 21 giugno 2010, l’agenzia statale iraniana Fars News Agency ha dato la stessa notizia falsa, citando come fonte l’articolo di Legalienate senza dire che si trattava, in realtà, di un contenuto satirico.

Le affermazioni su Netanyahu si sono diffuse in varie lingue, tra cui arabocoreanofarsigiapponesehindiindonesianoingleseitalianoportogheserusso e turco, e sono circolate su TikTokRedditXInstagramYouTube e su siti di notizie che hanno ricevuto un punteggio di affidabilità basso da parte di NewsGuard. Molti utenti hanno citato l’articolo di Global Village Space come fonte. Nel frattempo, alcuni siti gestiti in modo anonimo hanno pubblicatonecrologi dedicati al fantomatico “Moshe Yatom”. L’8 novembre 2023, quando un’analista di NewsGuard con sede negli Stati Uniti ha cercato su Google “Moshe Yatom”, il primo risultato apparso è stato l’articolo di Global Village Space.

Un sito generato dall'intelligenza artificiale diffonde una bufala virale sul suicidio del presunto psichiatra di Netanyahu
Una ricerca su Google di “Moshe Yatom” del 13 novembre 2023 mostrava decine di articoli che affermavano senza fondamento che “lo psichiatra di Netanyahu” fosse morto suicida. Non ci sono prove che il presunto psichiatra sia una persona reale. (Screenshot di NewsGuard)

“Lo psichiatra del primo ministro israeliano si suicida dando la colpa al delirante #Netanyahu”, ha scritto un account anonimo in un post su X che al 15 novembre ha ottenuto 8.400 visualizzazioni e più di 100 like e repost. Il deputato del Parlamento indiano Jawhar Sircar ha condiviso l’articolo di Global Village Space su X, scrivendo: “Lo psichiatra del premier israeliano Netanyahu si suicida – ritiene il premier responsabile! Terribile! Netanyahu è un vile, controverso bullo di stampo nazista con [una] fedina penale”. Il post di Sircar ha ottenuto al 15 novembre 6.000 visualizzazioni e più di 300 like e repost. 

NewsGuard non ha trovato alcuna prova che la falsa affermazione facesse parte di una campagna online coordinata più ampia, a parte la sua diffusione da parte dell’emittente iraniana. È probabile che le cosiddette “content farm” di articoli di bassa qualità, in gran parte alimentate dai clic per ottenere entrate dalla pubblicità programmatica, abbiano notato un aumento delle ricerche per “Moshe Yatom” e abbiano ripreso la notizia falsa nel tentativo di attirare gli utenti sui loro siti.  

Sfruttando ulteriormente la tecnologia dell’IA per diffondere la notizia falsa, un video su TikTok che ha ripetuto tale narrazione sembrerebbe aver utilizzato strumenti audio e avatar iperrealistici per simulare il racconto di una voce umana. Nel video, l’avatar di una donna generata dall’IA ma con sembianze umane afferma: “È con profonda tristezza che riportiamo la tragica scomparsa di uno dei principali psichiatri israeliani”, mentre viene visualizzato uno screenshot dell’articolo di Global Village Space. Il video ha ottenuto più di 19.000 visualizzazioni su TikTok al 14 novembre 2023. 

Un sito generato dall'intelligenza artificiale diffonde una bufala virale sul suicidio del presunto psichiatra di Netanyahu
Un video TikTok del novembre 2023 che ha utilizzato quello che sembra essere un avatar generato dall’IA e la tecnologia vocale per diffondere l’affermazione falsa sul suicidio dello “psichiatra di Netanyahu”. (Screenshot di NewsGuard)

A dimostrazione di come i modelli linguistici di grandi dimensioni possano essere utilizzati per diffondere falsità, quando NewsGuard ha chiesto a ChatGPT-4 di OpenAI: “Chi è Moshe Yatom?”, il chatbot ha risposto ripetendo la stessa narrazione priva di fondamento. “La scomparsa del Dr. Yatom, avvenuta il 6 novembre 2023, è stata accolta con shock e dolore diffusi, soprattutto perché si è trattato di un apparente suicidio, come indicato da una ferita autoinflitta con un’arma da fuoco, rinvenuta nella sua residenza di Tel Aviv”, ha risposto ChatGPT. 

Come presunta prova, la versione GPT-4 del chatbot, che ora cita le fonti quando genera il testo, ha rimandato a un articolo del 9 novembre 2023 di un altro sito di notizie inaffidabile generato dall’IA, CountyLocalNews.com, intitolato “Lo psichiatra del premier israeliano trovato morto a seguito di un apparente suicidio: la tragica fine di Moshe Yatom”.

Un sito generato dall'intelligenza artificiale diffonde una bufala virale sul suicidio del presunto psichiatra di Netanyahu
La risposta di ChatGPT quando NewsGuard ha chiesto al chatbot informazioni su “Moshe Yatom”. Il chatbot ha risposto ripetendo la notizia falsa del suicidio. (Screenshot di NewsGuard)

NewsGuard ha contattato GlobalVillageSpace.com via email nel maggio 2023, nell’agosto 2023 e nel novembre 2023, chiedendo informazioni sull’uso non dichiarato dell’IA da parte del sito per produrre articoli e riscrivere contenuti senza dare alcun credito alle fonti, ma non ha ricevuto risposta. OpenAI non ha risposto a un’email di NewsGuard del novembre 2023 in cui si chiedevano informazioni sulla diffusione da parte del suo chatbot della narrazione falsa sul suicidio del presunto psichiatra del primo ministro israeliano.

Questa analisi è stata inizialmente pubblicata nel Misinformation Risk Briefing, una newsletter riservata ai clienti di NewsGuard.

A cura di McKenzie Sadeghi