Experții vorbesc de o nouă etapă a războiului informațional digital.
Pe măsură ce Rusia încearcă să „infecteze” inteligențele artificiale generative, omenirea se confruntă cu o nouă formă de manipulare care ar putea afecta chiar memoria noastră colectivă. Experți britanici în studii de război avertizează, într-o analiză recent publicată, că manipularea informațională ar putea deveni mai subtilă și mai persistentă odată cu implicarea modelelor de inteligență artificială precum ChatGPT, notează Agence Science-Presse.
Riscul este următorul: pentru ca Rusia — sau orice alt stat autoritar — să aibă succes în a determina aceste IA generative, sau „modele lingvistice mari” (large language models – LLM), să repete sute de știri false, este necesar să integreze treptat falsități în universul digital. Iar aceste falsități se vor fixa astfel în memoria digitală, într-un mod durabil.
O rețea de propagandă mascată sub numele de Pravda
Punctul de plecare al acestei analize este un studiu publicat în martie anul acesta de organizația americană de combatere a dezinformării NewsGuard. Testele efectuate pe 10 dintre cele mai populare astfel de platforme de tip LLM — printre care ChatGPT, Gemini, Claude și Perplexity — au arătat că răspunsurile lor erau, într-adevăr, „infectate” de articolele publicate de o rețea de dezinformare rusă cunoscută sub numele de Pravda („Adevărul”, în rusă). Această rețea a apărut în aprilie 2022, la câteva săptămâni după invadarea Ucrainei de către Rusia.
NewsGuard a identificat 207 „afirmații probabil false” publicate în 2024, însă amploarea acestei rețele este mult mai mare: de la înființarea sa în 2022, Pravda a vizat aproximativ cincizeci de țări (inclusiv Ucraina), folosind 150 de domenii diferite, și a publicat, doar în 2024, aproape trei milioane și jumătate de mesaje.
De exemplu, ideea (falsă) că Statele Unite ar fi operat laboratoare secrete de arme biologice în Ucraina sau afirmația (tot falsă) că președintele ucrainean Volodymyr Zelensky ar fi folosit ajutorul american pentru îmbogățirea personală. Studiul NewsGuard a arătat că, pentru astfel de afirmații, sisteme de inteligență artificială citează, în medie, site-urile create de Pravda ca sursă în 33% din cazuri.
O contaminare digitală cu efecte pe termen lung
Studiul NewsGuard a fost publicat la scurt timp după un raport al unui grup de reflecție american, Project Sunlight, care a fost primul care a dezvăluit, în februarie 2025, că Pravda fusese creată pentru „a inunda modelele lingvistice mari cu conținut pro-Kremlin”.
Era de așteptat ca regimurile autoritare să vadă în acești agenți conversaționali sau modele lingvistice mari o oportunitate: abilitatea lor de a genera știri false în doar câteva secunde poate fi extrem de utilă pentru o țară care vrea să-și răspândească propaganda în spațiul virtual. În plus, modul în care aceste sisteme sunt „antrenate” le face foarte vulnerabile: atunci când li se pune o întrebare, ele caută răspunsul în întregul web, fără să poată distinge între surse de încredere și surse dubioase. Astfel, un stat ar putea crea sute de conturi false, toate publicând aceeași știre falsă, în speranța că agentul conversațional va oferi răspunsul dorit de Moscova.
Rezultatul, susțin cei doi experți britanici de la King’s College din Londra, este o „contaminare a datelor de antrenament” ale acestor roboți și „o nouă fază în războiul informațional”. Spre deosebire de propaganda tradițională, această „contaminare” este durabilă: „baze de date compromise introduc distorsiuni persistente în memoria digitală, remodelând subtil modul în care societățile își înțeleg propria istorie”.
Cei doi autori fac chiar un paralelism cu romanul 1984 de George Orwell:
„Cine controlează trecutul controlează viitorul; cine controlează prezentul controlează trecutul.”