A tre anni dall’inizio dell’invasione russa dell’Ucraina, la disinformazione ha assunto proporzioni sempre maggiori, con la diffusione di 302 fake news su oltre 500 piattaforme. Questo fenomeno è stato accompagnato da un crescente utilizzo dell’intelligenza artificiale, che ha reso le notizie manipolate ancora più convincenti. Secondo il monitoraggio di NewsGuard, il database Misinformation Fingerprints ha registrato un’evoluzione nelle tattiche di propaganda.
Nei primi mesi di guerra, la narrazione della propaganda russa si concentrava sull’accusa di una presunta diffusione del nazismo in Ucraina. Col passare del tempo, però, la strategia si è spostata su altri temi, come la corruzione del governo ucraino, il presunto calo del sostegno politico a Zelensky e l’inefficacia dell’aiuto economico occidentale destinato al Paese. Dal febbraio 2022, le modalità di diffusione della disinformazione si sono trasformate, evidenziando una crescita nell’impiego dell’intelligenza artificiale. Nel primo anno di conflitto, NewsGuard ha smentito 112 fake news, di cui solo una generata da AI. Nel secondo anno, il numero è sceso a 71, con cinque casi di manipolazione artificiale, mentre nel terzo anno sono state individuate 119 notizie false, con 16 episodi di contenuti creati attraverso AI.
Uno dei primi deepfake scoperti nel marzo 2022 mostrava un discorso falsificato di Zelensky, nel quale il presidente esortava gli ucraini alla resa. Inoltre, l’intelligenza artificiale è stata impiegata da fonti filo-Cremlino per creare articoli fasulli attribuiti a testate internazionali come BBC, CNN e Bloomberg News, con l’obiettivo di diffondere notizie ingannevoli.
Dal 2022 a oggi, NewsGuard ha identificato 44 narrazioni false diffuse da siti che imitavano fonti autorevoli, 24 delle quali emerse nell’ultimo anno. La crescente sofisticazione dell’intelligenza artificiale nella disinformazione rende sempre più difficile distinguere tra verità e manipolazione, condizionando la percezione del conflitto in Ucraina.