L’intelligenza artificiale è sotto attacco: una rete russa sta manipolando i chatbot occidentali per diffondere la propaganda russa. Ecco i risultati dell’indagine.
La Russia manipola l’intelligenza artificiale per far propaganda. È questo ciò che è emerso dalle indagini di NewsGuard, che ha scoperto come una rete pro-Cremlino stia iniettando sistematicamente disinformazione nei modelli di intelligenza artificiale più diffusi, tra cui ChatGPT, Grok, CoPilot, Claude, Gemini e Perplexity. Secondo gli esperti, questi chatbot diffondono involontariamente narrazioni false provenienti da una rete chiamata Pravda, che inonda il web con informazioni distorte per influenzare i dati di addestramento dell’IA.
Questa strategia è stata svelata nel gennaio scorso, quando il propagandista John Mark Dougan ha annunciato pubblicamente in una conferenza a Mosca che l’obiettivo della Russia è alterare il funzionamento dell’intelligenza artificiale globale. Con una produzione di oltre 3,6 milioni di articoli in 49 paesi, Pravda riesce a far apparire le sue informazioni nei risultati di ricerca e nei dataset utilizzati per addestrare i modelli linguistici avanzati.
Ma come funziona questa strategia? Quanto è vulnerabile l’intelligenza artificiale a queste manipolazioni? E quali sono le conseguenze per l’informazione globale? Ecco tutto quello che c’è da sapere a riguardo.
Come la Russia sta manipolando l’intelligenza artificiale
L’indagine di NewsGuard ha rivelato un metodo sofisticato con cui la rete di disinformazione russa Pravda riesce a influenzare l’intelligenza artificiale occidentale. Questo fenomeno, noto come LLM grooming (Large Language Model grooming), consiste nel sovraccaricare i motori di ricerca e i web crawler con enormi quantità di contenuti falsi o manipolati, che vengono poi integrati nei dati di addestramento dei chatbot. Poiché questi strumenti si basano su dati pubblicamente disponibili per generare risposte, le informazioni diffuse da Pravda finiscono per essere considerate affidabili.
Secondo l’indagine, sette chatbot su dieci testati hanno citato direttamente articoli provenienti da Pravda come fonti attendibili. Le narrazioni più diffuse includono teorie del complotto come l’esistenza di laboratori segreti di armi biologiche in Ucraina finanziati dagli Stati Uniti e false accuse di corruzione contro il presidente ucraino Volodymyr Zelensky. Il problema principale è che queste affermazioni, una volta integrate nei modelli di IA, vengono ripetute senza un adeguato controllo sulle fonti, aumentando il rischio che la disinformazione venga accettata come verità dagli utenti.
Un aspetto inquietante dell’indagine è che i siti web della rete Pravda non attirano quasi nessun visitatore umano. Ad esempio, il sito in lingua inglese conta solo 955 visitatori mensili. Questo indica chiaramente che l’obiettivo principale non è il pubblico tradizionale, ma gli algoritmi dell’intelligenza artificiale. Inondando i sistemi con informazioni false, Pravda riesce a infiltrarsi nei meccanismi di apprendimento delle IA senza dover necessariamente convincere direttamente gli utenti umani.
Le conseguenze della manipolazione russa sull’intelligenza artificiale
L’infiltrazione della propaganda russa nei modelli di intelligenza artificiale ha conseguenze preoccupanti, sia per la sicurezza delle informazioni che per la fiducia nel digitale. Il fatto che chatbot come ChatGPT e altri abbiano già integrato queste false narrazioni dimostra quanto sia vulnerabile l’intelligenza artificiale alle campagne di disinformazione organizzate.
Uno degli effetti più gravi riguarda l’erosione della credibilità delle IA generative. Se gli utenti iniziano a percepire questi strumenti come poco affidabili o influenzati da propaganda, la loro utilità nel fornire informazioni accurate e imparziali viene drasticamente ridotta. Questo può alimentare la sfiducia nei confronti delle nuove tecnologie, con un impatto negativo sull’adozione dell’intelligenza artificiale in ambiti cruciali come la ricerca accademica, il giornalismo e la governance.
Inoltre, la manipolazione dei chatbot da parte della rete Pravda dimostra che gli stati autoritari possono sfruttare le vulnerabilità dei sistemi occidentali per promuovere le proprie narrazioni politiche. Questo potrebbe portare a un’escalation nella guerra dell’informazione digitale, con altri paesi che potrebbero adottare strategie simili per influenzare il dibattito globale. La lotta alla disinformazione diventa quindi una priorità non solo per le aziende tecnologiche, ma anche per i governi e le istituzioni internazionali.
Affrontare questa minaccia richiede misure immediate. Le aziende che sviluppano chatbot dovrebbero rafforzare i loro algoritmi di verifica delle fonti e migliorare i meccanismi di filtraggio per impedire che contenuti manipolati finiscano nei loro dataset. Allo stesso tempo, è essenziale aumentare la consapevolezza degli utenti sull’esistenza di queste strategie di disinformazione, promuovendo un utilizzo critico e consapevole dell’intelligenza artificiale, che non può e non deve sostituire l’opinione e il pensiero critico umano.
© RIPRODUZIONE RISERVATA