1. Introducere
Războiul informațional contemporan a intrat într-o nouă etapă odată cu adoptarea instrumentelor generative-AI. În toamna anului 2023, serviciile de informații rusești și grupările afiliate au lansat Operation Overload și rețeaua Pravda, două inițiative menite să suprasatureze internetul cu texte, imagini și materiale audio falsificate. Prin integrarea GPT-3 pentru articole, Stable Diffusion și Flux AI pentru ilustrații foto-realiste și ElevenLabs pentru deepfake audio, pro-Kremlin și-a extins aria tematică de la geopolitică și alegeri la migrație și dezbateri europene.
Scopul acestei prezentări este să ofere publicului general o imagine clară asupra modului în care funcționează aceste instrumente, cât și asupra intensității și complexității operațiunilor de propagandă.
2. Mecanismele generative-AI
Pentru a înțelege pe deplin amploarea și sofisticarea campaniilor pro-Kremlin, vom analiza în continuare patru categorii de instrumente AI utilizate în tandem pentru a produce și răspândi conținut fals.
2.1. Modele de limbaj (LLM) pentru generarea textelor
Propaganda rusă folosește GPT-3 nu doar pentru volum, ci și pentru adaptare stilistică. Operatorii introduc un prompt-schelet („Impactul sancțiunilor asupra economiei românești”), definesc tonul — de la retorică alarmistă la nuanțe emoționale — și lasă modelul să construiască argumente și exemple. Astfel, DCWeekly.org, parte a Operation Overload, și-a crescut producția de la 0,6 la 1,8 articole pe zi. Prin LLM grooming — republicarea masivă a conținutului RT și Sputnik pe 150+ domenii false — narațiunile pro-Kremlin apar în 33% dintre răspunsurile chat-boților occidentali.
2.2. Ilustrații foto-realiste cu text-to-image
Stable Diffusion și Flux AI traduc prompturi descriptive („soldați NATO pe străzi devastate, tonuri cenușii”) în imagini cu valoare emoțională ridicată. Echipa de propagandă ajustează compoziția, lumina și paleta cromatică până la efectul dorit. Campania Matryoshka a creat peste 300 de „fake covers” care au crescut cu 45% rata de distribuire pe Telegram și Facebook, iar canale pro-Kremlin din România folosesc zilnic până la 10 astfel de ilustrații pentru a induce panică.
2.3. Deepfake audio și clonare de voce
Servicii precum ElevenLabs învață caracteristicile vocii unui oficial după câteva minute de înregistrări și pot reda orice text cu aceeași expresivitate. În aprilie 2025, Operation Overload a difuzat 150 de mesaje audio cu vocea falsă a unui ministru român, anunțând restricții inexistente. Aceste înregistrări au strâns peste 20.000 de ascultări pe Telegram și au amplificat sentimentul de urgență.
2.4. Rețeaua doppelgänger și contaminarea LLM-urilor
Rețeaua Pravda atacă „lanțul de aprovizionare al datelor” pentru AI. Articolele RT și Sputnik sunt copiate și publicate simultan pe peste 150 de domenii false. Roboții motoarelor de căutare le indexează ca surse relevante, iar dezvoltatorii de modele — OpenAI, Google — le includ în seturile de antrenament. Ca urmare, LLM-urile reproduc automat narațiuni pro-Kremlin în conversații, subminând neutralitatea chat-boților.
3. Concluzie
Propaganda generative-AI a devenit un mecanism scalabil, eficient și dificil de detectat. Înțelegerea aprofundată a fiecărui pas — de la generarea textelor și imaginilor până la contaminarea datelor — este esențială pentru construirea rezilienței informaționale. Pentru România, aceste operațiuni reprezintă o amenințare la adresa coeziunii sociale și a procesului democratic, motiv pentru care este vitală dezvoltarea rapidă a programelor de alfabetizare media și colaborarea instituțională în monitorarea și contracararea dezinformării.
Leave a Reply