Manipularea cognitivă în era digitală

1. Introducere

Manipularea cognitivă reprezintă un sistem coordonat prin care actori statali și non-statali exploatează vulnerabilități psiho-cognitive pentru a modela percepțiile, deciziile și comportamentele publicului țintă. Acest sistem configurează treptat un ecosistem informațional ce înlocuiește realitatea verificabilă cu narațiuni coerente intern, dar fragil fundamentate. Fenomenul a cunoscut o amplificare exponențială în ultimii ani, devenind un vector major al competiției strategice contemporane, precum și o amenințare concretă pentru procesele democratice, coeziunea socială și capacitatea colectivă de a lua decizii informate. Cercetarea occidentală recentă oferă cadre conceptuale solide pentru înțelegerea acestui fenomen complex. De la doctrinele NATO privind războiul cognitiv până la teoriile critice despre simulacru și hiperrealitate, literatura de specialitate structurează fenomenul pe multiple dimensiuni analitice și identifică măsurile necesare de protecție și reziliență.

Perioada 2020-2025 marchează o schimbare conceptuală majoră în abordarea manipulării cognitive. Integrarea progreselor din neuroștiințele cognitive, analiza comportamentală și învățarea automată în doctrina strategică militară și de securitate a modificat fundamental paradigma securității contemporane. NATO ACT (Allied Command Transformation) a introdus conceptul de domeniu cognitiv ca spațiu de conflict distinct, separat de cele cinci domenii operaționale tradiționale: terestru, maritim, aerian, cosmic și cibernetic. Organizația recunoaște astfel că mintea umană devine ținta principală a conflictului contemporan, nu teritoriul sau infrastructura fizică. Această mutație paradigmatică corespunde observației că mass-media și platformele digitale nu mai sunt simple intermediare între realitate și public. Acestea devin generatori activi de reprezentări care pot înlocui realitatea inițială și pot produce ceea ce filozoful francez Jean Baudrillard a numit hiperrealitate. În această lume a simulacrelor, distincția dintre autentic și fabricat s-a erodat complet.

2. Tehnici principale de manipulare cognitivă

Tehnicile de manipulare cognitivă se structurează pe mai multe niveluri, cu complexitate crescândă. Mecanismele clasice de modelare a agendei publice reprezintă punctul de plecare, iar nivelul avansat implică exploatarea sistematică a vulnerabilităților algoritmice ale platformelor digitale contemporane și a vulnerabilităților psihologice ale utilizatorilor.

Stabilirea agendei și cadrarea strategică constituie fundamentul teoretic pentru înțelegerea modului în care structurile media modelează spațiul atenției și al interpretării publice. McCombs și Shaw au demonstrat empiric în 1972 că mass-media nu ne spun neapărat ce să gândim, dar exercită o influență decisivă asupra temelor la care ne gândim. Aceștia au arătat că importanța temelor este transferată de pe agenda editorială pe agenda publică. Entman a extins această perspectivă în 1993 prin conceptul de cadrare strategică. Autorul arată că selectarea, accentuarea și omiterea anumitor aspecte ale realității conferă narațiunilor mediatice o putere morală de definire a evenimentelor și facilitează orientarea atitudinilor și evaluărilor publicului. Cercetările ulterioare asupra cadrării au demonstrat diferențe semnificative între efectele cadrelor episodice și tematice. Cadrele episodice se concentrează pe cazuri individuale și determină publicul să atribuie responsabilitatea la nivel individual. În contrast, cadrele tematice se axează pe tendințe și contexte structurale și conduc la atribuirea responsabilității sistemelor și instituțiilor. Această diferență de cadrare poate fi exploatată strategic pentru a deplasa responsabilitatea morală sau pentru a ascunde cauzele sistemice ale problemelor. Strategiile de manipulare consolidează astfel anumite interpretări politice în detrimentul altora.

Dezinformarea și „malinformarea” (furnizarea de informații scoase din contextul original) acționează în domenii mai complexe decât cadrul tradițional. Aceste tehnici combină adevăruri, falsuri și ambiguități strategice pentru a suprasolicita atenția publică și a submina încrederea în surse. Războiul cognitiv modern exploatează fuziunea dintre informație, dezinformare și „malinformare”. Informația reprezintă date corecte prezentate în context adecvat. Dezinformarea constă în informații false răspândite cu intenția de a induce în eroare. „Malinformarea” include informații reale, dar folosite în contexte care cauzează daune. Studiile recente arată că dezinformarea se răspândește de șase ori mai rapid decât informațiile corecte pe platformele sociale. Acest fenomen se explică prin faptul că mesajele cu încărcătură emoțională puternică atrag mult mai multă atenție și sunt distribuite pe scară largă. Surpriza, frica, furia și indignarea morală activează mecanisme psihologice care amplifică transmiterea virală. Algoritmii platformelor intensifică această tendință naturală. Sistemele digitale sunt optimizate pentru implicare, nu pentru acuratețe. Orice conținut care generează reacții rapide și puternice este promovat automat în fluxurile personalizate ale utilizatorilor.

Ambiguitatea strategică și supraîncărcarea informațională completează arsenalul tehnic prin lansarea simultană a mai multor versiuni contradictorii ale aceluiași eveniment. Această tactică paralizează capacitatea publicului de a lua decizii informate și creează percepția că toate sursele sunt la fel de necredibile. Strategia poartă denumirea de furtună de falsități în literatura NATO. Cercetătorii au documentat utilizarea intensă a acestei metode de către actori statali ostili în operațiuni de influență asupra alegerilor și referendumurilor din democrațiile occidentale.

Apelurile emoționale și moralizatoare reprezintă o categorie importantă de tehnici. Aceste instrumente activează frica, furia sau indignarea pentru a ocoli deliberarea rațională și a crește răspândirea mesajului în rețelele sociale. Studiile de psihologie socială arată că emoțiile negative sporesc memorabilitatea și transmiterea mesajelor. Ele consolidează narațiunile în memoria pe termen lung. Cercetările recente despre contagiunea emoțională în rețelele digitale indică faptul că expunerea la conținut emoțional intens modifică stările emoționale ale persoanelor expuse în timp. Această dinamică sincronizează stările afective ale membrilor grupurilor online. Contagiunea emoțională devine un instrument de manipulare cognitivă atunci când actorii cu intenții manipulatoare introduc strategic frică sau indignare în momente cheie ale dezbaterii publice. Perioadele preelectorale, momentele de criză și situațiile de conflict social oferă oportunități de a distrage atenția publicului de la raționamente analitice către reacții afective impulsive. Studiile despre polarizarea afectivă arată că fenomenul nu se limitează la dezacorduri de opinie. Polarizarea implică o animozitate profundă între grupuri ideologice, alimentată de emoții precum disprețul și furia. Interacțiunile dintre utilizatori cu ideologii opuse devin toxice și negative, în timp ce cele din interiorul aceleiași comunități ideologice rămân pozitive și de susținere. Această dinamică întărește diviziunile afective și blochează spațiile pentru dialog constructiv.

Exploatarea biasurilor cognitive profită de scurtăturile mentale pe care indivizii le utilizează zilnic pentru a economisi resurse cognitive. Kahneman și Tversky au deschis acest domeniu de cercetare în anii 1970. Cercetătorii au demonstrat cum oamenii se bazează pe trei euristici principale: reprezentativitate, disponibilitate și ancorare cu ajustare. Reprezentativitatea constă în evaluarea probabilității unui eveniment pe baza asemănării cu prototipul mental. Disponibilitatea înseamnă evaluarea frecvenței evenimentului pe baza ușurinței cu care pot fi aduse exemple în minte. Ancorarea cu ajustare evidențiază tendința de a rămâne aproape de informația de referință (ancora), chiar dacă aceasta este arbitrară. Aceste euristici permit decizii rapide, cu efort mental minim, în situații obișnuite și previzibile, dar produc erori sistematice atunci când cineva încearcă activ să manipuleze informația. Biasul de confirmare și efectul de turmă sunt exploatate intens în campaniile de dezinformare. Biasul de confirmare este tendința naturală de a acorda mai multă atenție și credibilitate informațiilor care susțin convingerile noastre existente, în timp ce ignorăm sau contestăm pe cele care le contrazic. Efectul de turmă (bandwagon effect) se referă la faptul că adesea oamenii adoptă comportamente sau opinii larg acceptate de ceilalți, doar pentru că aceștia sunt mulți sau consideră că majoritatea nu se poate înșela. Cercetările recente arată că, dacă o informație falsă este repetată de mai multe ori, oamenii încep să o perceapă ca fiind adevărată, chiar dacă nu este. Acest fenomen se numește efectul iluziei adevărului. Studiile experimentale au demonstrat că uneori este suficient ca o afirmație să fie repetată o singură dată pentru ca probabilitatea ca ea să fie considerată adevărată să crească semnificativ. Cu cât este repetată mai des, cu atât oamenii devin mai convinși că este reală, chiar dacă inițial știau că este falsă. În cele din urmă, repetarea poate înlocui cunoașterea corectă și poate face ca o informație falsă să fie acceptată ca fapt.

Construcția și diseminarea narațiunilor competitive oferă scenarii explicative simple care redefiniesc cine sunt actorii importanți, care sunt cauzele reale ale problemelor și ce valori ar trebui să aibă importanță. Narațiunile nu sunt doar simple povești despre evenimente, ci moduri structurate de a organiza înțelegerea noastră despre lume. Ele creează o hartă mentală clară: stabilesc cine sunt eroii și cine sunt dușmanii, ce este just și ce este injust. Repetarea constantă în spațiul public face ca aceste narațiuni să fie percepute drept realitate. Cercetarea asupra persuasiunii narative a descoperit că creierul uman procesează poveștile foarte diferit față de argumentele logice. În loc să activeze mecanisme defensive de contraargumentare, poveștile bine construite produc ceea ce cercetătorii numesc imersiune psihologică (narrative transportation). Cititorii sau spectatorii construiesc mental un model complet al lumii povestite și se transpun psihologic în acea lume. Ei reacționează emoțional și cognitiv ca și cum evenimentele ar fi reale și s-ar întâmpla cu adevărat. Această imersie profundă în narațiune reduce vigilența critică și deschide audiența la persuasiune prin trei mecanisme distincte: identificarea cu personajele și dorința de a urma modelul lor, învățarea incidentală de informații noi care par adevărate pentru că sunt încadrate în poveste și reamintirea sau reactivarea unor experiențe personale care rezonează cu tema povestirii. Metanarațiunile operează la un nivel mai abstract și mai cuprinzător decât narațiunile obișnuite. Ele sunt povești-cadru care oferă interpretări generale asupra modului în care funcționează lumea, conectând multiple evenimente aparent neconexe într-o viziune coerentă și simplificată. Spre deosebire de o poveste particulară despre un eveniment specific, o metanarațiune explică logica și sensul din spatele unui întreg șir de evenimente. Campaniile strategice de manipulare se concentrează pe construirea și susținerea unor metanarațiuni puternice, deoarece acestea oferă oamenilor explicații reconfortante și accesibile pentru o lume complexă, ambiguă și amenințătoare, chiar dacă adevărul este complet opus. Metanarațiunile false, odată stabilite prin repetare și susținere în narațiuni particularizate, rezistă puternic la contestare, deoarece afectează cadrul interpretativ complet prin care oamenii înțeleg lumea.

Microtargetarea psihografică și profilarea personalizată au devenit posibile la scară largă odată cu acumularea masivă de date despre comportamentul utilizatorilor online și dezvoltarea algoritmilor de învățare automată. Procesul include trei etape distincte: colectarea datelor despre utilizatori, construirea profilelor psihologice și generarea de mesaje adaptate acestor profile. Cazul Cambridge Analytica a ilustrat amploarea și complexitatea acestei metode. Compania a colectat date de la aproximativ 87 de milioane de utilizatori Facebook fără consimțământul acestora pentru a interveni în campania prezidențială a lui Donald Trump din 2016. Echipa tehnică a construit profile psihografice detaliate folosind modelul OCEAN de personalitate (deschidere, conștiinciozitate, extraversie, agreabilitate și nevrotism). Pe baza acestor profile, compania a generat mesaje personalizate și le-a adaptat la vulnerabilitățile psihologice individuale ale fiecărui utilizator pentru a influența deciziile de vot. Deși eficiența reală a microtargetării rămâne discutabilă în literatura academică, cercetările arată că personalizarea mesajelor persuasive în funcție de trăsăturile psihologice ale audienței crește ratele de convingere. Efectele pot fi semnificative în contexte electorale strânse, unde marjele decizionale sunt reduse. Arsenalul tehnologic include analiza sentimentelor, segmentarea psihografică prin învățare automată, generarea de conținut personalizat folosind inteligență artificială generativă și orchestrarea lansării mesajelor prin optimizare algoritmică. Obiectivul final este maximizarea expunerii în momentele în care ținta este mai vulnerabilă emoțional sau cognitiv.

3. Etape operaționale ale campaniilor de manipulare cognitivă

Campaniile de manipulare cognitivă urmează o structură operațională secvențială, documentată riguros în literatura NATO și în analizele academice ale operațiunilor de influență realizate de actori statali și non-statali.

Selectarea și segmentarea audiențelor reprezintă prima etapă strategică a oricărei campanii de manipulare cognitivă. În această etapă se identifică cu precizie grupurile țintă, temele emoționale relevante și momentele sau condițiile în care protecția critică a publicului este mai slabă. Vectorii emoționali sunt subiectele, imaginile și poveștile care trezesc în oameni emoții puternice ce îi pot determina să răspândească mesajele rapid. Specialiștii studiază reacțiile publicului la discuțiile din spațiul online și la evenimentele importante pentru a determina ce mesaje au cel mai mare impact. Punctele de vulnerabilitate din ecosistemul informațional sunt situații sau segmente sociale în care capacitatea oamenilor de a evalua critic informația este redusă. Acestea includ crizele, perioadele electorale, conflictele intense sau grupurile închise, influențabile din punct de vedere psihologic sau demografic. Documentele NATO privind războiul cognitiv arată că actorii statali adversari investesc resurse considerabile în cercetarea profilurilor psihologice ale liderilor politici, militari și ai opiniei publice. Acești actori dezvoltă baze de date extinse, care le permit să anticipeze reacțiile și să identifice mesajele cu cel mai puternic impact.

Cercetările occidentale recente asupra campaniilor ruse din Ucraina au analizat operațiunile de Manipulare și Interferență Străină în Informații. Aceste campanii, cunoscute sub acronimul FIMI, reprezintă acțiuni coordonate ale statului rus (în acest caz) menite să manipuleze și să influențeze narativele informaționale la nivel internațional. Pentru a expune și descifra structura acestor atacuri cognitive, cercetătorii au aplicat cadrul analitic DISARM, un instrument defensiv dezvoltat de experți NATO și specialiști în securitate pentru identificarea și contracararea campaniilor de manipulare informațională.

Cadrul DISARM structurează sistematic campaniile de manipulare cognitivă în șase faze succesive: detectarea inițială a campaniilor și a indiciilor de ingerință, identificarea actorilor implicați și a mijloacelor folosite, structurarea atacurilor în faze clare de evoluție și escaladare, activarea mesajelor și tacticilor persuasive, răspunsul prin monitorizarea și evaluarea impactului real și mitigarea prin implementarea de măsuri defensive de contracarare și atenuare a efectelor negative. Prin aplicarea acestui cadru analitic defensiv, cercetătorii occidentali au putut dezvălui cum operatorii ruși coordonează campaniile FIMI, pornind de la cercetarea și segmentarea audienței, trecând prin construcția narativelor, testarea și optimizarea, sincronizarea și amplificarea, până la normalizarea și ancorarea identitară, și, în final, negarea și camuflajul operațional. Această metodologie a permis o înțelegere aprofundată a mecanismelor psihologice și strategice exploatate pentru a influența percepțiile, deciziile și comportamentele publicului țintă.

Etapele operaționale ale manipulării cognitive în medii digitale

Etapa 1: Identificarea și profilarea țintei
Etapa 2: Supraîncărcare emoțională/informațională
Etapa 3: Erodarea gândirii critice și a încrederii
Etapa 4: Introducerea narativului și construirea pseudorealității
Etapa 5: Izolare socială/contextuală
Etapa 6: Repetiție și consolidare
Etapa 7: Controlul atitudinilor și comportamentelor

Construcția narațiunii stabilește cadrul interpretativ, identifică dușmanii simbolici, valorile considerate amenințate (adică principiile sau idealurile protejate de comunitate) și adună dovezi ce pot fi refolosite pentru a menține coerența mesajului în timp. Această fază reprezintă, în esență, un act deliberat de creare a unei povești strategice. Echipele de specialiști în comunicare creează această poveste astfel încât să fie acceptată de public. Procesul include selectarea faptelor care susțin narațiunea și omiterea sau deformarea celor care o contrazic. Studiile arată că astfel de narațiuni nu sunt simple redări ale realității, ci reprezentații comunicative menite să modifice realitatea prin influențarea percepțiilor și comportamentelor audienței. Narațiunea „regimul neo-nazist de la Kiev” a fost (și este) utilizată de propaganda rusă în timpul invaziei Ucrainei. Această narațiune nu are susținere factuală, dar funcționează ca metanarațiune mobilizatoare pentru audiența internă rusă și ca instrument de delegitimare a guvernului ucrainean pentru audiențele externe susceptibile. Construcția acestei narațiuni a implicat selectarea de imagini, declarații scoase din context, asociații false și simboluri istorice recalibrate pentru a crea o aparentă coerență internă, chiar în absența corespondentului cu realitatea. Documentele tehnice ale companiilor de analiză de date arată că echipele de redactori publicitari, designeri și psihologi colaborează pentru a crea mesaje cu rezonanță care evocă experiențe emoționale puternice și declanșează răspunsuri impulsive, mai degrabă decât reflecție critică.

Testarea și optimizarea constau în aplicarea testelor A/B pe platforme digitale, observarea implicării și ajustarea declanșatorilor emoționali și vizuali. Această fază importă metodologii din marketingul digital și le aplică manipulării cognitive, tratând persuasiunea ca pe o problemă de inginerie iterativă. Operatorii lansează multiple variante ale unui mesaj, măsoară care dintre ele generează cele mai multe interacțiuni și rafinează varianta câștigătoare. Aprecierile, distribuțiile, comentariile și clicurile devin indicatori de performanță. Operatorii relansează ciclul după fiecare optimizare. Platformele de socializare oferă instrumente sofisticate de testare pentru anunțători, permițându-le să experimenteze cu diferite combinații de text, imagini, titluri și apeluri la acțiune pentru a maximiza ratele de conversie. Actorii implicați în manipularea cognitivă exploatează aceste infrastructuri comerciale pentru a-și optimiza campaniile de influență. Mesajele false sau înșelătoare devin astfel mai virale decât informațiile corecte, dar mai puțin emoționante. Cercetarea empirică a arătat că știrile false se răspândesc pe Twitter semnificativ mai rapid și mai larg decât știrile adevărate. Fenomenul se accentuează în special când conținutul conține surpriză sau frică. Oamenii tind să redistribuie informații neobișnuite fără a verifica acuratețea lor. Această optimizare algoritmică a conținutului manipulator creează un dezavantaj sistemic pentru jurnalismul onest și factual. Jurnalismul restricționează voluntar utilizarea tehnicilor senzaționaliste, în timp ce manipulatorii nu au astfel de scrupule etice.

Sincronizarea și amplificarea implică lansarea coordonată în momente favorabile. Crizele, alegerile și evenimentele cu încărcătură emoțională ridicată oferă momente optime pentru intervenție. Campaniile de influență digitală sunt conduse de echipe strategice care concep și distribuie mesajele principale. Aceste echipe nu operează izolat, ci coordonează rețele complexe compuse din trei componente complementare. În primul rând, coordonatorii strategici planifică obiectivele, creează narațiunile și stabilesc momentele de lansare. În al doilea rând, fermele de troli implică persoane reale care gestionează simultan zeci sau chiar sute de conturi false. Acești angajați postează manual, comentează, distribuie și interacționează cu publicul țintă, generând astfel o activitate aparent organică și masivă. În al treilea rând, rețelele automate de boți amplifică exponențial aceste eforturi umane prin redistribuirea automată a mesajelor, manipularea algoritmilor platformelor sociale și crearea unor iluzii de consens și popularitate. Studii academice recente asupra comportamentului inautentic coordonat arată că aceste trei componente lucrează în sincronizare precisă. Boții și fermele de troli colaborează pentru a produce atacuri informaționale puternice și coordonate. Fermele de troli furnizează conținutul original și autenticitatea umană necesare pentru a trece filtrele de detectare ale platformelor. Boții amplifică apoi aceste mesaje la scară masivă și cu rapiditate. Rezultatul este o cascadă de propagare în care mesajul inițial pare să provină din mii de surse independente, deși, în realitate, este emis de o operațiune centralizată. În timpul campaniei prezidențiale americane din 2016, echipele ruse de troli din Sankt Petersburg au demonstrat clar cum funcționează acest sistem. Ele au gestionat rețele de conturi false și au colaborat strâns cu boții pentru a amplifica mesaje polarizante pe teme de rasă, imigrație și siguranță națională. Strategia lor avea două direcții: pentru susținătorii unui candidat, mesajele consolidau convingerile și loialitatea; pentru susținătorii celeilalte candidate, scopul era să genereze descurajare și să reducă mobilizarea electorală.

Normalizarea și ancorarea consolidează narațiunea prin repetare intensă, redistribuire coordonată și răsunet mediatic orchestrat până la internalizarea cadrului ca normalitate culturală. Această etapă profită de efectul iluziilor adevărului. Repetarea unei informații, chiar false, crește percepția de adevăr a acesteia, indiferent de cunoașterea inițială a subiectului. Studiile experimentale arată că expunerea repetată la teorii ale conspirației, chiar și cu scopul de a le demonta, conduce la creșterea credibilității acestora în timp. Familiaritatea generată prin repetare este interpretată greșit de creier ca fiind un semn al adevărului. O meta-analiză recentă asupra efectului iluziilor adevărului arată că repetarea crește încrederea în informații false cu o magnitudine de efect d = 0,60. Acest efect persistă chiar și atunci când participanții sunt inițial informați că afirmațiile sunt false. Manipulatorii cognitivi exploatează această vulnerabilitate prin diseminarea aceluiași mesaj pe multiple platforme, prin intermediul mai multor surse aparent independente, care sunt de fapt coordonate sau controlate clandestin. Strategia creează astfel iluzia că „toată lumea spune asta”, ceea ce declanșează efectul de turmă și reduce semnificativ rezistența critică. Ancorarea identitară completează normalizarea prin legarea narațiunii de identități, valori și loialități de grup. Dezacordul cognitiv cu narațiunea devine astfel un cost social și emoțional pentru individ. Această strategie explică de ce dezinformarea persistă chiar și în fața corecțiilor factuale. Pentru membrii unui grup identitar puternic legat, abandonarea unei credințe false echivalează cu trădarea grupului. Această conexiune emoțională cu grupul activează mecanisme psihologice de apărare care sunt mai puternice decât preferința pentru adevăr și exactitate.

Negarea și camuflajul asigură negarea plauzibilă, mutarea constantă a țintelor și lansarea de contra-narațiuni menite să zăpăcească verificarea. Această etapă finală exploatează opacitatea arhitecturii digitale și dificultatea atribuirii acțiunilor în mediul online pentru a permite manipulatorilor cognitivi să nege orice implicare directă, chiar când dovezile circumstanțiale sunt puternice. Operatorii construiesc rețele de boți și conturi centrale cu multiple straturi de obscurizare. Utilizarea VPN-urilor, rotația IP-urilor, fragmentarea operațiunilor pe multiple jurisdicții și utilizarea serviciilor comerciale de amplificare aparent neutre fac identificarea mandantului real extrem de dificilă. Echipele de investigație ale platformelor sociale sau ale agențiilor de securitate națională întâmpină obstacole majore. Studii asupra campaniilor de manipulare și interferență informațională străină arată că operatorii ruși, chinezi și iranieni adoptă tactici sofisticate de camuflaj. Strategiile includ crearea de conturi false care mimează cetățeni locali, utilizarea profilurilor generate prin inteligență artificială pentru a conferi aparența de autenticitate și amplificarea strategică a conținutului organic. Conținutul organic este produs de utilizatori reali. Amplificarea acestui conținut susține narațiunea dorită, evitând astfel crearea de conținut original riscant. Contra-narațiunile sunt lansate strategic pentru a inunda spațiul public cu explicații alternative conflictuale. Publicul nu mai știe ce să creadă și abandonează încercarea de a determina adevărul, refugiindu-se în cinism generalizat sau în credințe bazate exclusiv pe afilierea de grup.

4. Mijloace audio-video și digitale în manipularea cognitivă

Mijloacele audio-video și digitale reprezintă infrastructura tehnologică prin care se realizează strategiile de manipulare cognitivă. Aceste instrumente oferă capacități fără precedent de producție, personalizare și diseminare a conținutului persuasiv la scară globală.

Televiziunea și conținutul video online rămân principalele instrumente de persuasiune, folosind multiple canale senzoriale în campaniile de manipulare cognitivă. Aceste formate combină ritmul montajului, muzica, vocea naratorului și narațiunea vizuală pentru a maximiza impactul emoțional și cognitiv asupra publicului. Cercetările asupra efectelor media arată că formatele audio-vizuale produc un grad mult mai ridicat de imersiune narativă comparativ cu textul scris. Imersiunea narativă se referă la capacitatea unei narațiuni de a capta atenția receptorului și de a-l integra psihic în universul poveștii. Impactul simultan al stimulilor vizuali și auditivi generează procese cognitive în cortexul prefrontal, care se combină cu reacțiile emoționale generate de amigdală, în timp ce hipocampul consolidează aceste impresii în memorie, facilitând construirea unui model mental coerent și imersiv al lumii povestite. Acest avantaj persuasiv considerabil explică de ce campaniile de dezinformare investesc resurse semnificative în producția de înregistrări video de înaltă calitate. Studiile de neuromarketing arată că informația transmisă prin clipuri video generează o rată de retenție mai mare și o credibilitate percepută superioară față de mesajele text. Publicul atribuie mai multă credibilitate și putere persuasivă conținutului video decât mesajelor scrise, chiar și atunci când ambele transmit aceleași informații. Acest fenomen, cunoscut sub numele de tendința de a percepe videoclipurile ca mai credibile decât textul, este alimentat parțial de tendința umană de a asocia prezența elementelor senzoriale multiple cu autenticitatea și adevărul.

Tehnologia de falsificare profundă (deepfake) a adăugat o nouă dimensiune alarmantă acestui peisaj. Sinteza video și audio bazată pe rețele neuronale profunde permite crearea de înregistrări false extrem de convingătoare. Liderii politici sau personalitățile publice par să spună sau să facă lucruri pe care nu le-au spus sau făcut niciodată. Studii recente legate de deepfake-urile politice arată că aceste tehnologii pot compromite integritatea proceselor democratice prin diseminarea de informații false în perioade electorale. Ele pot intimida sau discredita adversari politici și jurnaliști, pot crea incidente diplomatice false și pot eroda încrederea generală a publicului în autenticitatea oricărui material media. Cercetarea experimentală a demonstrat că expunerea la deepfake-uri plauzibile reduce capacitatea participanților de a distinge între adevăr și fals în expunerile ulterioare. Această constatare sugerează că normalizarea falsificărilor profunde poate conduce la deteriorarea epistemică generală a spațiului public.

Mijloace audio-video utilizate în manipularea cognitivă

Mijloc Mecanism de impact Credibilitate percepută
Video tradițional (TV) Imersiune audio-vizuală Ridicat
Video online (YouTube, TikTok) Personalizare algoritmică, viralitate Moderat-ridicat
Deepfake Imitație hiper-realistă Foarte ridicat
Podcast/audio Apropiere vocală, imersie auditivă Ridicat
Livestream Autenticitate directă, interacțiune Foarte ridicat

Platformele de socializare sunt utilizate ca infrastructură principală pentru diseminarea și amplificarea manipulării cognitive. Acestea oferă fluxuri algoritmice, funcționalități de partajare, transmisiuni live și povești care reduc complexitatea realității și încurajează oamenii să ia decizii rapide pe baza informațiilor incomplete. Algoritmii de recomandare ai platformelor precum Facebook, YouTube, Twitter/X și TikTok nu sunt neutri: ei selectează ce conținut vede fiecare utilizator și, prin urmare, ce cred oamenii că este adevărat. Platformele optimizează acești algoritmi nu pentru a servi utilizatorii, ci pentru a maximiza implicarea și revenirea acestora. Indicatorii cruciali sunt durata acestor interacțiuni, numărul de clicuri și partajări, precum și frecvența cu care utilizatorii revin. Acești indicatori de implicare se traduc direct în venituri din publicitate, creând un sistem în care conținutul senzațional și emoțional este favorizat în detrimentul informației precise.

Cercetarea empirică arată că algoritmii promovează sistematic conținutul care evocă emoții intense. Furia, indignarea morală și surpriza generează mai mulți utilizatori decât informația neutră sau moderat pozitivă. Mesajele false, dar emoționante, primesc mult mai multă vizibilitate decât informația corectă, dar mai temperată. Această dinamică creează un mediu structural care favorizează manipularea cognitivă. Algoritmii de personalizare amplifică efectul prin ceea ce cercetătorii numesc camere de ecou (echo chambers) și bule filtrante (filter bubbles), unde utilizatorii sunt expuși în mod disproporționat la conținut care confirmă credințele lor preexistente. Rezultatul este progresiv: expunerea la perspective diverse scade dramatic, iar polarizarea ideologică se consolidează și se adâncește. Deși literatura academică discută gradul în care aceste efecte rezultă din arhitectura algoritmică versus alegerile active ale utilizatorilor, tendința cercetătorilor este de a concluziona că designul platformelor amplifică sistematic tendințele de auto-segregare ideologică. Platformele facilitează comportamentul coordonat neautentic prin oferirea de instrumente de targetare de mare precizie. Rețelele organizate de boți și ferme de troli exploatează aceste infrastructuri pentru a genera vizibilitate artificială, manipulând algoritmii de recomandare să perceapă anumite mesaje ca având suport organic și declanșând amplificarea în cascadă a conținutului manipulator.

Formatele scurte și vizuale, precum clipurile video, meme-urile și carusele de imagini, simplifică realitatea și îi determină pe oameni să ia decizii rapide bazate pe informații incomplete. Aceste formate reduc capacitatea audienței de a analiza critic informațiile și de a identifica nuanțele unui argument. Platforma TikTok este un exemplu clar al acestei tendințe. Aplicația a evoluat de la videoclipuri de 15 secunde la 60 de secunde și recent la zece minute, însă algoritmul său de recomandare rămâne extrem de agresiv în personalizare. Utilizatorii sunt rapid conduși către ceea ce cercetătorii numesc bule informaționale, medii în care sunt expuși repetat la aceeași categorie de conținut, generând o iluzie de consens și inevitabilitate. Studiile asupra efectelor cognitive ale formatelor scurte arată că consumul intens de conținut fragmentat scade capacitatea de atenție susținută și slăbește abilitățile de înțelegere a textelor lungi. Acest tip de consum încurajează gândirea superficială, bazată pe impresii rapide, în detrimentul analizei profunde. Meme-urile, combinații de imagine și text concis, sunt instrumente extrem de eficiente pentru diseminarea rapidă a mesajelor ideologice. Sunt ușor de creat și distribuit, memorabile și capabile să transmită conținut satiric sau ideologic complex într-o formă compactă. Cercetările privind utilizarea meme-urilor în campanii politice arată că acestea funcționează ca vehicule pentru propagarea narațiunilor simplificate și a cadrelor ideologice. Capacitatea lor de a evoca emoții puternice în câteva secunde le face mai influente decât argumentele detaliate sau analizele factuale în formarea rapidă a opiniilor.

Tehnologiile emergente, precum falsificările profunde (deepfake), sinteza vocală și generatorii de text și imagini bazate pe inteligență artificială, permit producerea și distribuția în masă a conținutului manipulator. Aceste tehnologii reduc semnificativ costurile și barierele tehnice pentru operațiuni ample de manipulare cognitivă. Instrumente precum ChatGPT, DALL-E, Midjourney și Stable Diffusion permit oricui, cu competențe tehnice minime, să producă text persuasiv, imagini realiste sau chiar videoclipuri sintetice în câteva minute. Această proliferare a capacității de manipulare multiplică numărul de actori care pot desfășura operațiuni de influență. În același timp, capacitatea instituțiilor de a monitoriza și combate diseminarea conținutului fals scade dramatic. Cercetările recente privind utilizarea inteligenței artificiale generative în dezinformare arată că aceste instrumente pot genera articole de știri false care seamănă cu articole jurnalistice autentice. Grupurile coordonate de dezinformare pot crea profiluri false pe rețelele sociale, complete cu biografii plauzibile și istorice de postări. Sistemele pot automatiza producția de comentarii și răspunsuri care inundă conversațiile publice cu mesaje manipulative. Studii experimentale au demonstrat că textele generate de inteligența artificială pot fi la fel de persuasive ca cele scrise de oameni. În unele cazuri, textele sintetice pot fi chiar mai persuasive, deoarece algoritmii pot optimiza limbajul pentru a evoca răspunsuri emoționale și cognitive specifice. Combinarea inteligenței artificiale generative cu microtargetarea psihografică implică riscuri profunde privind autonomia și demnitatea oamenilor. Sistemele ar putea crea mesaje personalizate la scară largă, fiecare mesaj fiind calculat pentru a exploata vulnerabilitățile psihologice unice ale fiecărei persoane. Ceea ce cercetătorii numesc „hypernudging”, o formă de influență care depășește limita persuasiunii obișnuite, ar putea transforma democrația într-un teren unde persuasiunea politică devine inginerie cognitivă de precizie. Oamenii nu ar mai fi cetățeni cu agenție, ci ținte pentru optimizare comportamentală.

5. Mecanismele psiho-cognitive ale construirii pseudorealității

Construcția și consolidarea unei pseudo-realități se bazează pe mecanisme psiho-cognitive universale, validate riguros prin cercetări psihologice și neuroștiințifice contemporane. O pseudo-realitate este un sistem coerent de percepții, interpretări și narațiuni care înlocuiește sau distorsionează realitatea obiectivă.

Reprezentarea versus realitatea constituie fundamentul teoretic pentru înțelegerea modului în care mass-media și platformele digitale nu reflectă realitatea, ci o reprezintă. Acest proces introduce în mod constant riscul distorsionării percepției. Această distincție, esențială în teoria comunicării, arată că orice act de comunicare mediată implică selecție, cadrare și interpretare. Reprezentarea nu este niciodată o oglindă neutră a realității, ci o construcție activă care evidențiază anumite aspecte și ascunde altele.

Teoriile constructiviste sociale susțin că realitatea socială este în mare măsură un produs al narațiunilor pe care le împărtășim colectiv. Mass-media nu doar relatează evenimentele, ci participă activ la construirea înțelegerii noastre despre ce este real și important. Această observație devine esențială în contextul manipulării cognitive. Actori rău intenționați pot exploata acest proces de reprezentare pentru a înlocui realitatea verificabilă cu narațiuni fabricate care servesc interese strategice. Cercetările privind stabilirea agendei de nivel doi arată că media nu doar stabilește despre ce subiecte gândim, ci și cum gândim despre ele. Media configurează atributele importante ale evenimentelor și persoanelor, influențând astfel evaluările morale și judecățile de responsabilitate ale publicului.

Fazele simulacrului în manipularea cognitivă (conform Baudrillard)

Fază Caracteristică Exemplu în manipularea digitală
Faza 1: Reflectare Copie fidelă a realității Fotografii autentice, înregistrări reale
Faza 2: Pervertire Reprezentare care denaturează Imagini editate, contexte manipulate
Faza 3: Pretinsa realitate Simulare fără model real Evenimente fabricate, narațiuni sintetice
Faza 4: Simulacrul pur Semn fără referință la realitate Hiperealitate digitală, pseudorealități coerente

Filozoful francez Jean Baudrillard a teoretizat conceptele de simulacru și hiperrealitare în 1981 pentru a explica transformările din societatea contemporană mediate de mass-media tradițională. Conceptele sale despre cum reprezentările devin mai influente decât realitatea verificabilă se aplică și mai puternic ecosistemului digital actual.

Un simulacru este o reprezentare care nu mai are legătură cu o realitate originală verificabilă. Un exemplu concret din era digitală este o fotografie falsificată care prezintă un eveniment politic care nu a avut loc niciodată. Imaginea circulă pe rețelele sociale, este comentată și distribuită ca dovadă reală, deși nu există niciun eveniment real în spatele ei. Aceasta este o copie fără original, o reprezentare care funcționează autonom în spațiul public și este amplificată de algoritmi care nu fac diferența între conținut fals și real.

Hiperrealitatea este starea culturală în care astfel de reprezentări proliferează masiv și devin mai credibile decât realitatea verificabilă însăși. În ecosistemul digital actual, oamenii interacționează constant cu imagini editate, videoclipuri optimizate, narațiuni fabricate și chiar conținut generat de inteligență artificială, care servesc drept referință pentru modul în care publicul înțelege ce este normal sau adevărat. Aceste reprezentări nu mai servesc ca intermediar către realitate, ci devin ele însele realitatea consumată, orientând comportamentele pe baza aparenței mai degrabă decât pe baza faptelor verificabile.

Baudrillard a identificat patru faze ale simulacrului, de la reprezentarea fidelă la simulacrul pur. În prima fază, reprezentarea este o copie exactă a realității, precum o fotografie nemodificată. În a doua fază, reprezentarea denaturează realitatea prin editare sau selecție. În a treia fază, reprezentarea simulează o realitate inexistentă, cum ar fi scenele create pentru propagandă. În faza finală, a simulacrului pur, mesajul fals, sub formă de imagine, video sau text, nu mai are nicio legătură cu realitatea verificabilă și se răspândește independent, fiind consumat și partajat ca și cum ar fi autentic. În mediul digital contemporan, platformele sociale amplifică masiv această ultimă fază, unde publicul consumă reprezentări fără a mai putea verifica dacă există ceva real în spatele lor.

Aplicat manipulării cognitive digitale, acest cadru teoretic arată cum proliferarea coordonată a conținutului fals produce o confuzie sistemică între autentic și fabricat. Algoritmii platformelor amplifică mesajele emoționante, indiferent de acuratețea lor, iar rețelele de boți și fermele de troli generează volume uriașe de conținut fals. În plus, tehnologiile emergente precum inteligența artificială generativă și deepfake-urile permit producerea la scară industrială a unor reprezentări false extrem de convingătoare. Rezultatul este că publicul pierde capacitatea de a distinge între dovezile reale și narațiunile deliberate fabricate, iar comportamentele sunt modelate pe baza unui mediu informațional care nu mai corespunde realității verificabile. Cercetări recente privind hiper-realitatea pe platformele de socializare arată că utilizatorii Instagram și TikTok construiesc vieți idealizate, filtrate și optimizate, care nu reflectă realitatea experiențelor lor cotidiene. Aceste reprezentări fabricate devin referințele culturale prin care alți utilizatori judecă normalitatea și succesul. Imagini perfect iluminate, vacanțe spectaculoase și vieți aparent fără probleme creează standarde artificiale de comportament și aspirații. În consecință, ele generează presiuni psihologice intense asupra celor care încearcă să se conformeze acestor modele imposibile.

În domeniul manipulării cognitive, hiperrealitatea urmează o dinamică similară. Narațiunile false, dar coerente, devin mai credibile pentru audiență decât faptele verificabile, dar fragmentate și greu de sintetizat. Coerența internă a narațiunilor false creează o iluzie de plauzibilitate și adevăr. Repetarea sistematică pe mai multe platforme produce obișnuință și confort psihologic, determinând oamenii să perceapă repetarea ca dovadă de adevăr. În contrast, realitatea empirică este complexă, fragmentată și dificil de sintetizat. Această complexitate descurajează publicul să se angajeze în gândirea critică profundă și analitică. Prin urmare, publicul preferă narațiunile simple, coerente și repetate, chiar dacă sunt false.

Dezinformarea perturbă bucla OODA la două niveluri. Mai întâi, congestia informațională distruge observația: volumul masiv de mesaje contradictorii face imposibilă distingerea adevărului. Apoi, cadrele false distorsionează orientarea: narațiunile intenționat modelate ne forțează să interpretăm realitatea printr-o lentilă falsă. Rezultatul: atât observația, cât și orientarea sunt compromise, iar comportamentele corespund unei realități care nu mai există. John Boyd, strateg militar american, a dezvoltat modelul OODA Loop pentru a descrie ciclul decizional în confruntări competitive rapide. Modelul cuprinde patru faze: observă (O), orientează (O), decide (D), acționează (A). Boyd a argumentat că succesul în conflict depinde de capacitatea de a parcurge mai rapid și mai eficient acest ciclu decizional decât adversarul. Obiectivul constă în a opera în interiorul buclei OODA a oponentului, ceea ce înseamnă că îl dezorientează și îi blochează capacitatea de a reacționa eficient.

Cercetarea militară și de securitate a extins acest model la războiul cognitiv. Manipularea informațională vizează în mod explicit perturbarea fazei de orientare (O). Aceasta este procesul prin care individul sau organizația integrează observațiile noi cu cunoștințele anterioare, modelele mentale, cultura și experiența pentru a construi o înțelegere coerentă a situației. Atunci când dezinformarea saturează spațiul public cu volume mari de informații false, contradictorii și ambigue, cetățenii pierd capacitatea de a distinge adevărul de minciună. Sistemul lor de evaluare a credibilității surselor se prăbușește sub greutatea dezinformării coordonate. Dezinformarea distruge capacitatea de a construi o reprezentare coerentă a realității. Rezultatul este paralizia decizională sau luarea de decizii bazate pe premise false. Ambele rezultate sunt de dorit pentru manipulator. Studii asupra războiului informațional în Ucraina arată că operațiunile de manipulare și interferență informațională străină rusești au vizat sistematic perturbarea buclelor OODA ale liderilor militari ucraineni. Strategia a inclus diseminarea de informații false despre mișcările trupelor, atacuri de dezinformare asupra familiilor militarilor și crearea de confuzie strategică în spațiul public. Toate aceste acțiuni au avut scopul de a încetini și de a deforma procesele decizionale ucrainene.

Ancorarea emoțională reprezintă un mecanism psiho-cognitiv esențial prin care narațiunile manipulatoare se fixează în memoria pe termen lung, fiind stabilizate prin asocierea deliberată cu emoții negative intense. Cercetările neuroștiințifice actuale arată că experiențele cu o valență emoțională puternică sunt consolidate mai eficient în memoria pe termen lung comparativ cu cele fără încărcătură emoțională. Această diferență se datorează activării sistemului amigdalian în momentul procesării inițiale a informației. Această activare susține atât codificarea inițială a reprezentării mentale, cât și consolidarea ulterioară a urmei mnemonice prin mecanisme de potențare sinaptică pe termen lung. Această corespondență între mecanismele biologice de memorare și strategiile de manipulare cognitivă explică de ce narațiunile emoționale polarizante se transmit mai ușor decât informațiile factuale, neîncărcate emoțional. Sistemul amigdalian, o structură limbică care gestionează fricile și emoțiile intense, constituie fundamentul biologic al ancorării emoționale. Acest mecanism s-a dezvoltat evolutiv ca strategie adaptativă pentru a ne ajuta să reținem rapid și durabil informații esențiale despre amenințări și oportunități. Din perspectiva psihologiei evolutive, această capacitate nu este întâmplătoare: indivizii care rețineau rapid și consolidau durabil avertismentele despre pericole aveau șanse semnificativ mai mari de supraviețuire și reproducere în mediile ancestrale pline de amenințări, motiv pentru care acest mecanism rămâne puternic și vulnerabil în creierul contemporan. Această vulnerabilitate biologică, care a oferit un avantaj selectiv în mediile ancestrale, a fost identificată și exploatată sistematic de operatorii de manipulare cognitivă în epoca digitală. În loc să fie depășită prin educație și conștientizare, ea a fost transformată într-un vector de atac, iar manipulatorii cognitivi asociază intenționat narațiunile false cu stimuli emoționali negativi intenși pentru a se asigura că mesajele vor fi memorate mai ușor și redistribuite mai rapid decât informațiile factuale neutre. Exploatarea sistematică a acestor vectori emoționali urmează modele precise și reproductibile de calibrare psihologică. Atunci când simțim frică, se activează sistemele neurale de vigilență și apărare, concentrând atenția asupra amenințărilor percepute și suspendând gândirea critică. În starea de furie, se mobilizează agresivitatea și acțiunea directă, anulând capacitatea de analiză rațională. Indignarea morală combină sentimentul că oponenții încalcă valorile etice pe care le susținem cu emoție negativă intensă, transformând dezacordul politic în conflict bazat pe valori morale. Dezgustul intens, prin natura sa fiziologică, produce reacții instinctive de respingere și diseminare automată în rețele sociale, facilitând memorarea durabilă și viralizarea exponențială a narațiunilor false chiar și atunci când sunt contrazise de dovezi.

Cercetările privind răspândirea emoțiilor în rețelele sociale au evidențiat o diferență semnificativă în viteza de propagare între diferitele tipuri de mesaje. Mesajele încărcate cu judecăți morale și emoții intense, precum expresiile care acuză o trădare a valorilor, se răspândesc de aproximativ șase ori mai rapid și ajung la de trei ori mai mulți oameni decât mesajele bazate exclusiv pe fapte și informații verificabile. Această diferență nu este întâmplătoare: emoțiile puternice, în special mânia și revolta, influențează capacitatea noastră de a gândi critic și ne determină să partajăm mesajul mai departe, transformând fiecare persoană care îl citește într-un difuzor activ al acelui mesaj. Limbajul moral-emoțional combină conținutul moral cu o intensitate emoțională ridicată și activează simultan identitatea de grup și mecanismele de alarmă emoțională. Cercetările asupra polarizării emoționale arată că emoțiile nu doar însoțesc dezacordurile ideologice, ci devin motorul principal al diviziunilor politice. Membrii grupurilor opuse nu doar că au opinii diferite, ci se tem și se detestă reciproc. Această dinamică face dialogul constructiv aproape imposibil și consolidează camerele de ecou ideologice, în care fiecare grup consumă exclusiv informații care întăresc convingerile sale despre superioritatea morală a propriei poziții și pericolul reprezentat de adversar.

Întărirea prin repetiție și efectul iluziei adevărului cresc credibilitatea afirmațiilor repetate în contexte aparent diferite, chiar și atunci când acestea contrazic cunoștințele inițiale despre subiect. Acest mecanism cognitiv a fost descoperit experimental în anii 1970 și a fost replicat în sute de studii ulterioare. El arată că familiaritatea generată de expunerea repetată la o afirmație este interpretată greșit de creier ca un semn al adevărului. Efectul este robust și se manifestă chiar și atunci când participanții sunt avertizați că unele afirmații sunt false. Efectul persistă chiar și atunci când repetarea provine din surse diferite, ceea ce ar putea sugera independență. De asemenea, acesta se menține chiar și când intervalul de timp dintre repetări este scurt, de zile sau săptămâni.

Meta-analize recente confirmă că repetarea crește credința în dezinformare cu o magnitudine moderată, dar consistentă. Valoarea efectului este aproximativ d = 0,60. Efectul persistă la testele de follow-up după luni de zile, sugerând că repetarea are un impact pe termen lung asupra sistemelor de credință. Manipulatorii cognitivi exploatează acest mecanism prin diseminarea coordonată a acelorași narațiuni false pe multiple platforme. Diseminarea se face prin intermediul a zeci sau sute de conturi, unele autentice, altele false. Strategia creează astfel impresia că „toată lumea spune asta” și declanșează atât efectul iluziei adevărului, cât și efectul de turmă. Studii experimentale arată că, chiar și teoriile conspirației implauzibile devin mai credibile după repetare, deși efectul este mai mic decât pentru afirmațiile mai plauzibile. Această constatare sugerează că repetarea poate muta chiar și credințe rezistente spre acceptare, dacă volumul de repetiții este suficient.

Selectivitatea sistematică, verosimilitatea narativă, ecologia informațională controlată și ancorarea identitară colaborează pentru a construi o pseudo-realitate coerentă intern, dar lipsită de ancorare în fapte verificabile. Selectivitatea sistematică constă în alegerea exclusivă a faptelor parțiale care susțin narațiunea dorită și omiterea deliberată a contraprobelor. Această strategie produce o lume aparent coerentă, dar fundamental falsă. Verosimilitatea narativă substituie criteriul adevărului empiric cu criteriul coerenței interne. O poveste care sună bine, care are protagoniști, antagoniști, motive clare și o structură dramatică satisfăcătoare devine credibilă pentru public, chiar dacă nu corespunde realității. Creierul uman este predispus evolutiv să proceseze și să rețină informații în format narativ. Cercetările asupra persuasiunii narative arată că poveștile bine construite reduc contra-argumentarea, cresc identificarea emoțională cu personajele și produc schimbări de atitudine care persistă în timp. Aceste efecte se manifestă chiar și atunci când audiența este informată că povestea este ficțiune. Ecologia informațională controlată se referă la construcția intenționată a unui mediu mediatic în care toate sursele aparent independente promovează aceeași narațiune. Strategia creează senzația de consens social și elimină expunerea la perspective alternative. Camerele de ecou ideologice și bulele de filtrare facilitează această construcție. Utilizatorii ajung să fie expuși exclusiv la conținut care confirmă credințele grupului lor identitar. Această dinamică întărește convingerea că toți oamenii rezonabili gândesc astfel. Ancorarea identitară transformă dezacordul cognitiv cu narațiunea în cost social și emoțional. Dacă narațiunea falsă devine marcator identitar al grupului, atunci contestarea narațiunii echivalează cu trădarea grupului și riscul excluderii sociale. Această dinamică activează mecanisme psihologice de apărare mult mai puternice decât dorința abstractă de acuratețe epistemică. Cercetările asupra identității sociale și gândirii motivate arată că oamenii nu procesează informațiile în mod neutru, ci selectiv, pentru a-și proteja apartenența la grup. Când un individ se identifică puternic cu un grup politic, religios sau ideologic, creierul său tinde să interpreteze informațiile noi astfel încât să mențină credințele grupului respectiv. Aceasta înseamnă că informațiile care confirmă credințele grupului sunt acceptate rapid, în timp ce informațiile care contrazic aceste credințe sunt fie ignorate, fie reinterpretate pentru a elimina contradicția. Această procesare selectivă are loc chiar și atunci când implică distorsiunea sau ignorarea dovezilor verificabile.

6. Indicatori de alertă și măsuri de reziliență cognitivă

Cercetarea occidentală contemporană arată că manipularea cognitivă în era digitală integrează tehnici multistrat sofisticate, având ca scop construirea și consolidarea pseudorealităților care înlocuiesc percepția obiectivă și facilitează controlul atitudinal și comportamental al indivizilor. De la falsificările profunde și microtargetare, până la exploatarea sistematică a biasurilor cognitive, arsenalul manipulatorilor s-a diversificat și a devenit mult mai sofisticat. Principalele riscuri provin din viteza de circulație a informației, vulnerabilitatea cognitivă structurală a persoanelor, lipsa alfabetizării media-critice și amplificarea algoritmică a conținutului emoțional și polarizant.

Identificarea indicatorilor de alertă reprezintă prima linie de apărare împotriva manipulării cognitive. O diferență semnificativă între intensitatea emoțională a mesajului și nivelul detaliilor probelor prezentate este un indicator principal de manipulare cognitivă. Mesajele autentice oferă dovezi proporționale cu afirmațiile făcute, în timp ce mesajele manipulatoare generează emoții extreme bazate pe probe slabe sau inexistente. Cercetările privind detectarea dezinformării arată că mesajele false utilizează limbaj hiperbolic, fac afirmații categorice fără nuanțe, invocă conspirații fără mecanisme plauzibile și atribuie intenții rele fără dovezi directe.

Multiplicarea rapidă a dovezilor circulare între surse interconectate este un alt semnal de alarmă. În ecosistemele de dezinformare, aceeași afirmație falsă este repetată de multiple surse care se citează reciproc. Această strategie creează aparența unei convergențe independente, deși, în realitate, toate sursele provin din aceeași operațiune coordonată. Inconsistențele tolerate în timp, mascate de reîncadrarea continuă a subiectului, relevă lipsa unui fundament factual. Narațiunile false se adaptează constant pentru a evita demontarea. Ele mută acuzațiile, schimbă detaliile sau redefinesc termenii atunci când sunt confruntate cu dovezi contrare. În contrast, narațiunile ancorate în realitate rămân stabile, deoarece faptele nu se schimbă.

Reziliența cognitivă necesită o abordare integrată care combină instrumente tehnologice cu măsuri educaționale și psihosociale. Sistemele de detectare a manipulărilor audio-video, mecanismele de verificare a faptelor și reglementările algoritmilor platformelor constituie componentele tehnologice. Consolidarea gândirii critice, diversificarea surselor informaționale, instruirea etică și conștientizarea mecanismelor manipulării formează dimensiunea educațională și psihosocială. Alfabetizarea media și gândirea critică, implementate prin programe educaționale care explică tehnicile de reprezentare și distorsionare media, au fost propuse pe larg ca soluții durabile pentru creșterea rezilienței cognitive a populațiilor.

O meta-analiză recentă a 177 de studii care au examinat eficiența intervențiilor de alfabetizare media arată că acestea îmbunătățesc în general reziliența la dezinformare, având o magnitudine a efectului moderată, cu valoarea d = 0,60. Intervențiile reduc credința în dezinformare cu d = 0,27, îmbunătățesc capacitatea de a distinge între informații adevărate și false cu d = 0,76 și reduc intențiile de redistribuire a dezinformării cu d = 1,04. Studiul evidențiază, de asemenea, că intervențiile cu mai multe sesiuni sunt mai eficiente decât cele cu o singură sesiune. Efectele sunt mai puternice în culturi cu o aversiune ridicată față de incertitudine. Studenții universitari beneficiază mai mult decât adulții recrutați de pe platforme online de crowdsourcing.

Cu toate acestea, cercetările asupra efectelor pe termen lung ale acestor intervenții arată rezultate mai puțin optimiste. Studiile care au urmărit participanții timp de trei luni după intervenție au constatat că beneficiile scad semnificativ în timp. Această constatare sugerează că cunoștințele și abilitățile dobândite se erodează dacă nu sunt practicate și întărite constant. Alfabetizarea media nu poate fi un vaccin aplicat o singură dată, ci trebuie integrată ca practică continuă în educația formală și în consumul media cotidian.

Igiena informațională reprezintă un set de practici individuale care pot reduce vulnerabilitatea la manipulare. Verificările cross-sursă, pauzele de atenție și prioritizarea calității în fața volumului constituie pilonii acestei abordări. Cercetările asupra fact-checking-ului arată că învățarea tehnicii de citire laterală îmbunătățește semnificativ capacitatea de a identifica informațiile false. În loc să analizeze doar conținutul paginii respective, utilizatorii verifică rapid credibilitatea unei surse consultând surse terțe. Studii experimentale au demonstrat că chiar și o intervenție scurtă de o oră, care învață această tehnică, poate produce efecte imediate și pe termen scurt asupra capacității de evaluare a credibilității știrilor. Efectele pe termen lung rămân însă incerte.

Pauzele de atenție, prin întreruperea deliberată a consumului media pentru a reduce supraîncărcarea cognitivă, au fost propuse ca strategie de protecție împotriva manipulării prin volum. Aceste pauze permit sistemului cognitiv să se recupereze și să reanalizeze critic informațiile acumulate. Diversificarea surselor, prin consultarea deliberată a unor perspective ideologice și culturale variate, poate contracara efectele camerelor de ecou și ale bulelor de filtrare. Cercetările experimentale arată rezultate mixte. Unele studii sugerează că expunerea forțată la perspective opuse poate reduce polarizarea, în timp ce altele arată că poate produce efecte contrare, consolidând convingerile inițiale dacă expunerea este percepută ca ostilă sau nelegitimă.

Cadrul NATO pentru războiul cognitiv oferă o perspectivă strategică asupra efectelor, tacticilor și interacțiunii cu operațiunile cibernetice și hibride. Acest cadru integrează dimensiunile psihologice, informaționale și tehnologice ale competiției în domeniul cognitiv. Documentele produse de Allied Command Transformation Innovation Hub între 2020 și 2024 definesc războiul cognitiv ca fiind invizibil până când impactul său devine evident. La acel moment, de obicei, este prea târziu pentru o contracarare eficientă. Cadrele analitice propuse includ identificarea vectorilor de atac, evaluarea vulnerabilităților populațiilor țintă și dezvoltarea capacităților de reziliență la nivel individual, organizațional și societal. Vectorii de atac includ platforme sociale, media tradițională, educație și cultură populară. Vulnerabilitățile cuprind niveluri scăzute de alfabetizare media, polarizare politică preexistentă și erodarea încrederii în instituții.

Recomandările NATO includ investiții pe termen lung în educația media, dezvoltarea unor instrumente tehnologice pentru detectarea automată a campaniilor de manipulare coordonată, întărirea cadrului legal și etic pentru moderarea conținutului pe platforme și consolidarea cooperării internaționale pentru identificarea și sancționarea actorilor statali și non-statali implicați în operațiuni de război cognitiv. Uniunea Europeană a avansat în paralel prin Digital Services Act, care impune platformelor mari transparență sporită privind algoritmii de recomandare, obligații de moderare a conținutului ilegal și dăunător și mecanisme independente de audit. Toate aceste măsuri au scopul de a reduce capacitatea actorilor rău intenționați de a exploata infrastructurile digitale pentru manipulare la scară largă.

Literatura evidențiază faptul că responsabilitatea rezilienței nu poate fi externalizată exclusiv către instituții sau tehnologie. Aceasta implică participarea activă a cetățenilor în evaluarea critică a informațiilor, verificarea surselor și cultivarea unei atitudini reflexive față de conținutul digital consumat. Perspectivele viitoare de cercetare includ dezvoltarea de modele predictive ale vulnerabilității cognitive, analiza comparativă a eficacității măsurilor de prevenire a manipulării și investigarea impactului pe termen lung al expunerii la pseudorealități asupra sănătății mentale și coeziunii sociale. Prezenta sinteză a literaturii occidentale de specialitate oferă instrumente conceptuale solide pentru înțelegerea acestui fenomen complex. De la cadrele clasice de stabilire a agendei și cadrare ale lui McCombs, Shaw și Entman, la doctrinele contemporane de război cognitiv ale NATO, până la teoriile critice ale lui Baudrillard despre simulacru și hiperrealitate, corpusul academic occidental pune bazele necesare pentru elaborarea politicilor publice, practicilor educaționale și designului tehnologic responsabil. Aceste instrumente sunt esențiale pentru protejarea proceselor democratice, coeziunii sociale și capacității colective de a lua decizii informate în era digitală.

Surse bibliografice

  1. Claverie, Bernard, și François du Cluzel. “Cognitive Warfare Concept.” NATO Allied Command Transformation Innovation Hub, 2023.
  2. Deppe, Christoph, și Gary S. Schaal. “Cognitive Warfare: A Conceptual Analysis of the NATO ACT Cognitive Warfare Exploratory Concept.” Frontiers in Big Data, 2024.
  3. McCombs, Maxwell, și Donald Shaw. “The Agenda-Setting Function of Mass Media.” Public Opinion Quarterly 36, no. 2 (1972): 176-187.
  4. Entman, Robert M. “Framing: Toward Clarification of a Fractured Paradigm.” Journal of Communication 43, no. 4 (1993): 51-58.
  5. Baudrillard, Jean. Simulacre et Simulation. Paris: Éditions Galilée, 1981.
  6. Pennycook, Gordon, și David G. Rand. “Fighting COVID-19 Misinformation on Social Media: Experimental Evidence for a Scalable Accuracy-Nudge Intervention.” Psychological Science 31, no. 7 (2020): 770-780.
  7. Lazer, David M.J., et al. “The Science of Fake News.” Science 359, no. 6380 (2018): 1094-1096.
  8. Goldenberg, Amit, și James J. Gross. “Digital Emotion Contagion.” Trends in Cognitive Sciences 24, no. 4 (2020): 316-328.
  9. Tversky, Amos, și Daniel Kahneman. “Judgment under Uncertainty: Heuristics and Biases.” Science 185, no. 4157 (1974): 1124-1131.
  10. Green, Donald P., și Christopher T. Kenny. “Cambridge Analytica’s Psychographic Profiling and Targeting.” Frontiers in Communication 5 (2020).
  11. Allcott, Hunt, și Matthew Gentzkow. “Social Media and Fake News in the 2016 Election.” Journal of Economic Perspectives 31, no. 2 (2017): 211-236.
  12. Vosoughi, Soroush, Deb Roy, și Sinan Aral. “The Spread of True and False News Online.” Science 359, no. 6380 (2018): 1146-1151.
  13. Bradshaw, Samantha, și Philip N. Howard. “The Global Disinformation Order: 2019 Global Inventory of Organised Social Media Manipulation.” Working Paper 2019.3, Project on Computational Propaganda, Oxford, 2019.
  14. Tandoc Jr., Edson C., et al. “Defining ‘Fake News’: A Typology of Scholarly Definitions.” Digital Journalism 6, no. 2 (2018): 137-153.
  15. International Telecommunication Union. “Deepfakes and Democracies: Risks and Responses.” ITU Report, 2022.
  16. Boyd, John R. “A Discourse on Winning and Losing.” Air University, Maxwell Air Force Base, 1987.
  17. Pennycook, Gordon, și David G. Rand. “The Illusory Truth Effect: A Meta-Analysis.” Perspectives on Psychological Science 19, no. 6 (2024): 1176-1190.
  18. Sunstein, Cass R. Republic.com 2.0. Princeton: Princeton University Press, 2007.
  19. European Union Institute for Security Studies. “Smoke and Mirrors: Building EU Resilience against Manipulation through Cognitive Security.” EUISS Brief, 2025.
  20. Green, Donald P., și Christopher T. Kenny. “Psychographic Profiling and Cambridge Analytica.” Frontiers in Communication, 2020.
  21. “Image and Video Manipulation: The Generation of Deepfakes.” Universitat de Barcelona, 2023.
  22. Chen, Shuiqiao, et al. “Spread of Misinformation on Social Media: What Contributes to It and How to Combat It.” Computers in Human Behavior 141 (2023): 107643.
  23. Brader, Ted. Campaigning for Hearts and Minds: How Emotional Appeals in Political Ads Work. Chicago: University of Chicago Press, 2006.
  24. Cialdini, Robert B. Influence: The Psychology of Persuasion. New York: HarperCollins, 2006.
  25. “Discourse Structures and Propaganda.” EMNLP, 2023.
  26. “Disinformation and Strategic Frames: Introducing the Concept of a Strategic Epistemology Towards Media.” Media, Culture & Society 46, no. 8 (2024): 1691-1709.
  27. “Effective Yet Ephemeral Propaganda Defense.” arXiv, 2025.
  28. Entman, Robert M. “Framing: Toward Clarification of a Fractured Paradigm.” Journal of Communication 43, no. 4 (1993): 51-58.
  29. “Exploring Alternative Computational Approaches for News Framing.” Journalism & Mass Communication Quarterly, 2025.
  30. “Framing Affects Support for AI Development.” Science Communication 47, no. 1 (2025): 105-134.
  31. “Framing as a Concept: Organized Persuasive Communication.” Critical Sociology 45, no. 7-8 (2019): 935-951.
  32. Gamson, William A., și Andre Modigliani. “Media Discourse and Public Opinion on Nuclear Power: A Constructionist Approach.” American Journal of Sociology 95, no. 1 (1989): 1-37.
  33. Grabe, Maria Elena, și Erik P. Bucy. Image Bite Politics: Spectacles and Emergencies on American Television News. Oxford: Oxford University Press, 2009.
  34. Hallahan, Kirk. “Seven Models of Framing: Implications for Public Relations.” Journal of Public Relations Research 11, no. 3 (1999): 205-242.
  35. “Impact of Media Framing in Complex Information Environments.” Political Communication, 2025.
  36. Iyengar, Shanto. Is Anyone Responsible? How Television Frames Political Issues. Chicago: University of Chicago Press, 1991.
  37. Jowett, Garth S., și Victoria O’Donnell. Propaganda & Persuasion. 7th ed. Thousand Oaks: SAGE Publications, 2019.
  38. Jowett, Garth S., și Victoria O’Donnell. Propaganda and Persuasion. 4th ed. Thousand Oaks: SAGE Publications, 2006.
  39. Kahneman, Daniel. Thinking, Fast and Slow. New York: Farrar, Straus and Giroux, 2011.
  40. Lakoff, George. Don’t Think of an Elephant! Know Your Values and Frame the Debate. White River Junction: Chelsea Green Publishing, 2004.
  41. McCombs, Maxwell, și Donald Shaw. “The Agenda-Setting Function of Mass Media.” Public Opinion Quarterly 36, no. 2 (1972): 176-187.
  42. “Media Framing in the Digital Age.” COMMUNICA: Journal of Communication 2, no. 1 (2025): 1-20.
  43. “Paradigm of Propaganda.” International Letters of Social and Humanistic Sciences 28 (2014): 80-95.
  44. Pedrini, Pier Paolo. Propaganda, Persuasion and the Great War. London: Routledge, 2017.
  45. Pratkanis, Anthony, și Elliot Aronson. Age of Propaganda: The Everyday Use and Abuse of Persuasion. Revised ed. New York: W.H. Freeman, 2001.
  46. “PropaInsight Framework: Multimodal Detection of Propaganda.” arXiv, 2024.
  47. Rashkin, Hannah, et al. “Fine-Grained Analysis of Propaganda in News Articles.” Proceedings of EMNLP, 2019: 5636-5646.
  48. Scheufele, Dietram A. “Framing as a Theory of Media Effects.” Journal of Communication 49, no. 1 (1999): 103-122.
  49. Shah, Dhavan V., et al. “News Framing and Cueing of Issue Regimes.” Public Opinion Quarterly 66, no. 3 (2002): 339-370.
  50. Tuchman, Gaye. Making News: A Study in the Construction of Reality. New York: Free Press, 1978.
  51. “Disinformation and Strategic Frames: Introducing the Concept of a Strategic Epistemology Towards Media.” Media, Culture & Society 46, no. 8 (2024): 1691-1709.
  52. “Misinformation, Disinformation, and Fake News: Lessons from an Interdisciplinary, Systematic Literature Review.” Communication & Society 37, no. 2 (2024): 185-210.
  53. “Fake News and Information Warfare: An Examination of the Political and Psychological Processes from the Digital Sphere to the Real World.” Academia.edu, 2018.
  54. “Countering AI-generated Misinformation with Pre-emptive Strategies: A Meta-Analysis.” Nature Human Behaviour 9 (2025): 125-142.
  55. “Meta-Analysis of Media Literacy Interventions.” Journal of Communication 73, no. 4 (2023): 375-398.
  56. “Research on Disinformation in Academic Studies: Perspectives through a Bibliometric Analysis.” Publications 12, no. 2 (2024): 14.
  57. “Algorithmic Manipulation and Information Science: Media Theories and Cognitive Warfare in Strategic Communication.” Media & Jornalismo 25, no. 46 (2025): 13-32.
  58. “A Cross-Domain Study of the Use of Persuasion Techniques in Online Disinformation.” arXiv, 2024.
  59. “Persuasive Technology and Computational Manipulation: Hypernudging out of Mental Self-determination.” Frontiers in Artificial Intelligence 6 (2023): 1216340.
  60. “Media Manipulation and Disinformation Online: Case Studies.” Data & Society Research Institute, 2017.
  61. “Measuring the Evolution of a Scientific Field through Citation Frames.” ACM Transactions on Information Systems 36, no. 4 (2018): 1-36.
  62. “Algorithmic Amplification and Cascade Dynamics on Social Media.” Nature Communications 10 (2019): 5738.
  63. “AI and Cyber-Enabled Threats to Democracy through Information Manipulation.” European Scientific Journal 21, no. 4 (2025): 56-78.
  64. “Deceptive AI-Generated Content and Detection Challenges.” arXiv, 2024.
  65. “Social Media Misinformation and Fake News: A Consumer Behaviour Perspective.” PhD Thesis, University of Portsmouth, 2024.
  66. “The Automated Systematic Search Deduplicator (ASySD): Tool to Remove Duplicate Citations.” bioRxiv, 2021.
  67. “Algorithmic Manipulation: Techniques and Implications.” arXiv, 2023.
  68. “Confronting Digital Challenges With Cognitive Tools: The Inoculation Approach.” Perspectives on Psychological Science 15, no. 6 (2020): 1531-1552.
  69. “AI-Generated Misinformation: A Case Study on Emerging Challenges.” SAGE Open 15, no. 1 (2025).
  70. “Predicting User Engagement in Health Misinformation on Social Media.” Journal of Medical Internet Research 27, no. 1 (2025): e65631.
  71. “Algorithmic Governmentality and Neurobiological Imaginaries.” Theory, Culture & Society 41, no. 3 (2024): 89-112.
  72. “The Biopolitics of Algorithmic Control in Platform Societies.” New Media & Society 24, no. 8 (2022): 1866-1885.
  73. “Hypernudging out of Mental Self-Determination: Persuasive Technology and Computational Manipulation.” Frontiers in Artificial Intelligence 6 (2023): 1216340.
  74. “Media Theories and Strategic Cognitive Warfare in Information Operations.” Media & Jornalismo 25, no. 46 (2025): 13-32.
  75. Lazer, David M.J., et al. “Algorithmic Amplification, Filter Bubbles, and Political Polarization.” Science 374, no. 6565 (2021): 311-313.
  76. “The Ethics of AI in Information Warfare: Deepfakes and Democratic Disruption.” IEEE Security & Privacy 22, no. 1 (2024): 34-43.
  77. “Detection of Deepfakes: A Systematic Review and Meta-Analysis.” Computers & Security 135 (2023): 103498.
  78. “The Impact of Recommendation Algorithms on Online Polarization: Experimental Evidence.” Nature Human Behaviour 7 (2023): 1345-1360.
  79. “Limits of Human Performance in Detecting Deepfake Videos.” Frontiers in Psychology 15 (2024): 1298468.
  80. “Detecting Misinformation Cascades in Social Networks.” arXiv, 2019.
  81. “Machine Learning Approaches for Fake News Detection: A Comprehensive Survey.” arXiv, 2024.
  82. “Media Manipulation Tactics and Soft Power Techniques in International Relations.” Critical Society Studies 1, no. 1 (2025): 36-58.
  83. “The Role of Social Media Algorithms in Fake News Dissemination.” Social Media + Society 9, no. 2 (2023).
  84. “Algorithmic Game Theory and Strategic Information Spread.” arXiv, 2024.
  85. “Understanding Digital Misinformation: Prevalence, Detection, and Intervention Strategies.” PLOS ONE 19, no. 2 (2024): e0284962.
  86. Goel, Sharad, et al. “Network Models of Misinformation Propagation.” Physical Review E 106, no. 4 (2022): 044308.
  87. “Social Network Analysis for Misinformation Control: Theory and Practice.” Journal of Broadcasting & Electronic Media 65, no. 2 (2021): 240-261.
  88. “Psychological Interventions Countering Misinformation in Social Media: A Scoping Review.” BMC Public Health 23, no. 1 (2023): 119.
  89. “The Persuasive Effects of Social Cues and Source Effects on Misinformation Susceptibility.” Scientific Reports 14 (2024): 3642.
  90. “Thinking Clearly About Misinformation: The Challenges Ahead.” Psychological Science in the Public Interest 25, no. 1 (2024): 1-78.
  91. “Simulacra and Simulation in Social Media: Baudrillard and the Age of Postmodern Hyperreality.” Journal of Consumer Culture 21, no. 3 (2021): 501-520.
  92. Lewandowsky, Stephan, et al. “The Psychological Drivers of Misinformation Belief and Its Resistance to Correction.” Nature Reviews Psychology 1, no. 1 (2022): 13-29.
  93. “The Truth in Fake News: How Disinformation Laws Are Reframing the Concepts of Truth and Accuracy on Digital Platforms.” European Competition Law Review 43, no. 5 (2022): 203-214.
  94. “Simulacra and Simulation in Social Media: Postmodern Hyperreality.” Journal of Consumer Culture 21, no. 3 (2021): 501-520.
  95. “Narratives at Conflict: Computational Analysis of News Framing in Multilingual Disinformation Campaigns.” arXiv, 2024.
  96. “Cognitive Marginality: A Framework For Targeted Manipulation in Information Warfare.” Academic Conferences International, 2025.
  97. “Russian Influence Operations as a Tool of Cognitive Warfare in German Elections.” Defence Science Review 5, no. 1 (2025): 78-95.
  98. “Psychology of Media Manipulation: Mechanisms and Countermeasures.” ShodhKosh: Journal of Visual and Performing Arts 5, no. 2 (2024): 1-18.
  99. “Boyd’s OODA Loop in Strategic Decision-Making and Cognitive Warfare.” Central European Journal of Security Policy 19, no. 1 (2025): 86-102.
  100. “The Illusory Truth Effect: A Meta-Analysis of Contributing Factors.” Psychological Science 35, no. 11 (2024): 1176-1190.
  101. “Cognitive Warfare and Information Manipulation: Contemporary Threats to Democracy.” Semantic Scholar Database, 2024.
  102. “OODA Loop Dynamics in Cognitive Warfare Operations.” Defence Studies 24, no. 3 (2024): 342-365.
  103. “Affective Polarization and Emotional Distortions on Social Media Platforms.” Royal Institute of Philosophy Supplements 94 (2024): 139-164.
  104. “Representation and Reality in Media Studies: Epistemological Foundations.” Communication Theory 34, no. 2 (2024): 156-178.
  105. “Deepfake: Manipulativní Technika v Informačních Operacích.” Vojenské rozhledy 33, no. 2 (2024): 45-61.
  106. “Digital Emotion Contagion and Social Media Psychology: Mechanisms and Consequences.” Graduate Program in International Studies Theses, Old Dominion University, 2023.
  107. “Algorithmic Systems in Information Warfare: Technical and Ethical Dimensions.” Information Warfare Journal 23, no. 4 (2024): 67-89.
  108. “Cognitive Warfare Strategic Frameworks: Russian and Western Approaches.” Vlast (Power) Journal 32, no. 1 (2024): 124-141.
  109. “Persuasive Technology and Computational Manipulation: Hypernudging out of Mental Self-determination.” Frontiers in Artificial Intelligence 10 (2023): 1216340.
  110. “Persuasive Technology Framework for Behavioral Change.” Frontiers in Artificial Intelligence 6 (2023): 1089696.
  111. “Propaganda Analysis Framework: Computational Approaches.” International Letters of Social and Humanistic Sciences 40 (2015): 41-50.
  112. “Computational Propaganda Detection Using Machine Learning.” arXiv, 2024.
  113. “Information Warfare in Digital Age: Strategies and Countermeasures.” Journal of Information Warfare 22, no. 2 (2023): 12-34.
  114. “Cognitive Warfare: The New Battlefield Exploiting Our Brains.” Polytechnique Insights, 2024.
  115. “Cognitive Warfare: Securing Hearts and Minds.” InfoLab Research, University of Ottawa, 2022.
  116. “Media Framing and Cognitive Bias: Psychological Mechanisms.” Frontiers in Psychology 12 (2021): 584689.
  117. “Media Framing in Latin America: Trends and Patterns.” Revista Latina de Comunicación Social 82 (2024): 1-28.
  118. “Social Media and Political Polarization: Global Perspectives.” Social Network Analysis and Mining 14 (2024): 49.
  119. “Misinformation Dynamics on Social Platforms: A Comprehensive Analysis.” Social Sciences 13, no. 8 (2024): 418.
  120. “Digital Disinformation and Social Networks: Mechanisms of Spread.” SSRN Electronic Journal, 2023.
  121. “Computational Detection of Misinformation: Methods and Challenges.” ACM Digital Library, 2024.
  122. “Algorithmic Amplification of Misinformation on Social Media Platforms.” Social Media + Society 9, no. 4 (2023).
  123. “Information Cascades on Social Media: Models and Empirical Evidence.” PLOS ONE 19, no. 5 (2024): e0303183.
  124. Pennycook, Gordon, și David G. Rand. “Fighting Misinformation on Social Media Using Crowdsourced Judgments of News Source Quality.” Proceedings of the National Academy of Sciences 116, no. 7 (2019): 2521-2526.
  125. Pennycook, Gordon, și David G. Rand. “Shifting Attention to Accuracy Can Reduce Misinformation Online.” Nature 592 (2021): 590-595.

Leave a Reply

Your email address will not be published. Required fields are marked *

You may also enjoy…