Qualche giorno fa OpenAI ha denunciato l’uso improprio dei suoi strumenti di intelligenza Artificiale da parte di Cina, Russia, Iran e Israele per condurre campagne di disinformazione. L’organizzazione ha rilevato cinque operazioni diverse negli ultimi tre mesi. “Questi attori hanno utilizzato gli strumenti di AI di OpenAI per creare e diffondere contenuti di propaganda su questioni geopolitiche e socio-economiche attraverso le piattaforme di social media”, ha dichiarato la startup nel suo rapporto. Tra le campagne più rilevanti emerge “Bad Grammar” di origine russa, che ha preso di mira Ucraina, Moldavia, Stati baltici e Stati Uniti, creando commenti politici e codici di debug per i bot di Telegram utilizzando strumenti di AI di OpenAI. L’altra campagna russa, ormai nota, “Doppelganger” ha generato commenti in diverse lingue, traducendo articoli e pubblicandoli su piattaforme come Facebook, 9GAG e X. Il rapporto segnala anche la rete cinese “Spamouflage”, che ha utilizzato i modelli di OpenAI per condurre ricerche sull’attività dei social media, generare testi in varie lingue e pubblicarli su piattaforme come X, Medium e Blogspot, oltre a debug di codici per gestire database e siti web, inclusi domini non segnalati precedentemente, come revealscum[.]com.
Un’operazione iraniana chiamata “The International Union of Virtual Media” (IUVM) ha utilizzato l’AI per scrivere articoli lunghi e titoli pubblicati sul sito impress.co. Mentre l’azienda israeliana STOIC ha lanciato l’operazione “Zero Zeno”, che ha prodotto articoli e commenti con l’Intelligenza Artificiale, pubblicandoli su varie piattaforme, tra cui Instagram, Facebook, X e i loro siti web. “I contenuti pubblicati da queste operazioni riguardavano una vasta gamma di argomenti, tra cui l’invasione russa dell’Ucraina, il conflitto a Gaza, le elezioni in India, la politica in Europa e negli Stati Uniti, e le critiche al governo cinese da parte di dissidenti e governi stranieri”, continua il rapporto. Gli attori malevoli hanno utilizzato strumenti come ChatGPT per generare grandi volumi di contenuti con meno errori linguistici, creando l’illusione di un forte engagement sui social media e migliorare la produttività riassumendo messaggi e debug di codici. Il report aggiunge che nessuna di queste operazioni è riuscita comunque a “mobilitare in modo significativo un pubblico reale” grazie alle contromisure previste da OpenAI
Un altro studio pubblicato alcuni giorni fa da Facebook ha già evidenziato l’abuso crescente degli strumenti di AI da parte di queste “operazioni di influenza” malevole. L’azienda definisce queste operazioni come CIB (Comportamento Inautentico Coordinato) e le descrive come “sforzi coordinati per manipolare il dibattito pubblico a fini strategici, con falsi account al centro dell’operazione”. Meta ha recentemente interrotto molte di queste operazioni che utilizzavano l’AI per generare immagini, video e testi, come evidenziato nel suo rapporto trimestrale sulle minacce. La campagna “Portal Kombat”, scoperta recentemente da Viginum, è un esempio emblematico. Il report di Meta sottolinea che l’azienda ha anche implementato misure di sicurezza che spesso hanno impedito la creazione di contenuti malevoli.
Tuttavia, a pochi giorni dalle elezioni europee, una recente analisi di monitoraggio evidenza l’escalation di attività propagandistiche pro-Russia sulle piattaforme digitali ed in particolare proprio attraverso Meta, sollevando serie preoccupazioni riguardo alla manipolazione delle informazioni e all’integrità del processo elettorale. L’analisi in questione è stata condotta da AI Forensics e CheckFirst che mettono in evidenza come dal primo al 27 maggio 2024, Meta ha approvato e gestito campagne pubblicitarie (senza disclaimer politici), pro-Russia in Italia, Germania, Francia e Polonia con almeno 275 annunci che hanno raggiunto oltre 3 milioni di account. Il 26 marzo 2024, la Commissione Europea ha emanato linee guida nel contesto del Digital Services Act (DSA) per mitigare i rischi sistemici associati alle elezioni, sottolineando l’importanza per le piattaforme online di implementare politiche robuste per prevenire l’abuso dei meccanismi pubblicitari nella diffusione di informazioni fuorvianti e manipolazioni informative straniere. Malgrado le segnalazioni, l’analisi di AI Forensics aveva già segnalato che dal 17 aprile 2024 che Meta ha permesso la diffusione incontrollata di annunci politici, alimentando la propaganda pro-Russia e le truffe finanziarie all’interno dell’Unione Europea. La rilevazione di queste campagne è solo la punta dell’iceberg, poiché esistono molteplici varianti e strategie utilizzate dai propagandisti per eludere i controlli delle piattaforme digitali. Pertanto, è essenziale che Meta e le altre piattaforme online implementino misure di sicurezza per identificare e contrastare efficacemente queste minacce, proteggendo così l’integrità del processo democratico e il diritto dei cittadini a un’informazione libera e non manipolata.