manipulare cognitivă

  • Analiza manipulării cognitive și a vulnerabilității psihice prin lentila psihologiei jungiene

    1. Introducere în arhitectura psihicului și mecanismele de influență

    Fenomenul manipulării cognitive reprezintă una dintre cele mai complexe și insidioase provocări ale societății contemporane și ale relațiilor interumane. Într-o epocă definită de o abundență informațională copleșitoare și de interacțiuni adesea mediate de structuri sociale superficiale, capacitatea de a influența, distorsiona și controla percepția unui individ a atins un nivel de rafinament fără precedent. Această lucrare își propune să exploreze mecanismele manipulării cognitive nu doar ca pe un set de tehnici de persuasiune sau de șantaj emoțional, ci dintr-o perspectivă analitică profundă, fundamentată pe principiile psihologiei dezvoltate de Carl Gustav Jung. Abordarea jungiană oferă un instrumentar conceptual inegalabil pentru a înțelege cum anume vulnerabilitățile noastre cele mai intime devin porți de acces pentru influențele externe distructive.

    Pentru a decripta anatomia manipulării, este imperativ să realizăm o disecție clară a modelului jungian al psihicului, așa cum este el reprezentat în diagramele clasice ale psihologiei analitice. În viziunea lui Jung, psihicul uman nu este un simplu receptacul de informații și nici un mecanism pasiv de reacție la stimuli, ci un sistem vast, dinamic și autoreglator, format din instanțe aflate într-o perpetuă negociere. Privind structura psihicului, observăm o diviziune fundamentală între lumea exterioară și lumea interioară, între zona conștientă și zonele profunde ale inconștientului.

    La contactul cu lumea exterioară se află Persona, masca socială pe care individul o adoptă pentru a se integra și a corespunde așteptărilor comunității. Sub aceasta se găsește Egoul, care reprezintă centrul câmpului conștiinței, sediul voinței, al rațiunii și al identității personale conștiente. Egoul este filtrul prin care percepem realitatea imediată și factorul decizional care organizează acțiunile noastre. Totuși, Egoul reprezintă doar o mică parte a totalității psihice. Coborând spre lumea interioară și spre inconștient, întâlnim Umbra, acel depozit al calităților, dorințelor și instinctelor reprimate, considerate inacceptabile de către Ego și de către societate. Dincolo de Umbră, straturile mai profunde ale inconștientului personal se deschid spre inconștientul colectiv. Acest fundament al întregii structuri este o moștenire psihică universală care conține arhetipurile întregii umanități.

    În centrul absolut al acestei diagrame, intersectând atât conștientul cât și inconștientul, se află Sinele. Sinele este arhetipul totalității și al ordinii, principiul central care ghidează procesul de individuare, adică acea călătorie de o viață în care individul integrează treptat conținuturile inconștiente pentru a deveni o persoană întreagă, autentică și indivizibilă. Axa care leagă Egoul de Sine este vitală pentru sănătatea mentală. Atunci când această axă este solidă, individul are un sentiment de sens și de înrădăcinare interioară. Atunci când este avariată, individul experimentează o stare de alienare, devenind extrem de susceptibil la influențe externe.

    Manipularea cognitivă și emoțională acționează cu precizie chirurgicală în acele zone în care procesul de individuare este blocat, iar axa dintre Ego și Sine este slăbită. Atunci când anumite aspecte ale personalității sunt negate sau când Egoul se identifică prea mult cu Persona, straturile profunde ale psihicului nu dispar, ci capătă o viață autonomă, adesea rebelă. Din acel loc ascuns, aceste forțe influențează deciziile, creează reacții automate și generează nevoi nesatisfăcute pe care o entitate externă expertă în manipulare le poate exploata cu ușurință. Manipulatorul nu face altceva decât să identifice complexele inconștiente ale victimei și să le activeze în propriul său interes.

    Din rațiuni de rigoare academică, este necesară o scurtă centralizare a limitelor metodologice ale acestui cadru teoretic. Psihologia analitică operează cu noțiuni abstracte, precum inconștientul colectiv, dificil de validat empiric prin metodele cantitative ale științelor comportamentale stricte. Mai mult, în practica terapeutică, ea nu oferă aceleași instrumente rapide pentru corectarea disonanțelor de suprafață pe care le propune Terapia Cognitiv-Comportamentală (TCC), axată pe reducerea imediată a simptomelor. TCC-ul și individuarea acționează însă complementar. În timp ce abordările cognitive excelează în restructurarea gândurilor automate și dezvoltarea rezilienței pe termen scurt, modelul jungian își dovedește valoarea inegalabilă prin capacitatea de a explica arhitectura de adâncime a psihicului, oferind o hartă a substratului emoțional din care se hrănesc aceste vulnerabilități.

    Această lucrare va analiza fundamentele vulnerabilității umane în fața manipulării, folosind harta psihicului jungian drept busolă. Structura argumentației se bazează pe examinarea a trei piloni centrali ai vulnerabilității psihice abordați în Capitolele 2, 3 și 4, mai exact natura singurătății ca vid de autenticitate, lipsa gândirii reflexive care condamnă individul la reacții automate și cauzalitatea prin care egoul rigid se expune tacticilor de control. Este fundamental de înțeles că acești trei piloni nu operează izolat, ci formează o cascadă a vulnerabilității. Din perspectiva experienței trăite, victima se confruntă mai întâi cu o singurătate neintegrată profundă, al cărei vid emoțional colapsează apoi capacitatea de a menține distanța reflexivă. Totuși, la rădăcina structurală a ambelor simptome stă, de fapt, rigiditatea egoului, forța care a generat izolarea și a refuzat adaptarea de la bun început. Ulterior, în Capitolul 5, vom prezenta o consecință directă a avarierii acestor piloni, demonstrând felul în care proiecțiile inconștiente generează distorsionarea realității. În final, Capitolul 6 va relua unitar argumentația pentru a stabili de ce recâștigarea agenției constituie cel mai profund scut defensiv.

    Tabelul de mai jos servește drept hartă structurală a acestor instanțe, anticipând funcțiile și vulnerabilitățile pe care le vom explora:

    Instanța psihică Funcția adaptativă naturală Vulnerabilitatea inerentă speculată Reziliența obținută prin individuare
    Persona Integrare și lubrifiere socială Supraidentificarea anulează accesul la emoțiile autentice. Flexibilitatea rolurilor fără pierderea identității de bază.
    Egoul Executivul conștiinței și deciziei Inflația sau rigiditatea îl fac orb la propriile defecte. Umilința cognitivă și deschiderea către inconștient.
    Umbra Stocarea pulsiunilor incompatibile cu normele Proiecția transformă defectele proprii în frici externe paranoice. Asumarea responsabilității morale pentru propriul întuneric.

    Analizând acest tabel, remarcăm faptul că fiecare instanță deține o vulnerabilitate structurală nativă, independentă de manipulator. Procesul terapeutic nu urmărește eliminarea acestor structuri, ci rafinarea lor funcțională.

    2. Singurătatea și vulnerabilitatea absenței autenticității

    Înțelesul profund al singurătății în cadrul psihologiei analitice diferă radical de definiția comună care asociază acest sentiment exclusiv cu izolarea fizică sau cu lipsa interacțiunilor sociale. Carl Gustav Jung a postulat o idee revoluționară, afirmând că singurătatea nu apare doar din absența celorlalți, ci mai ales din imposibilitatea de a împărtăși ceea ce este cu adevărat esențial în interiorul nostru. Această paradigmă mută centrul de greutate al alienării umane de la contextul exterior către dinamica interioară.

    Pentru a fi riguroși, trebuie făcută o distincție esențială între singurătatea neintegrată și solitudinea asumată. Singurătatea neintegrată reprezintă un vid interior resimțit ca o durere acută, o stare în care individul este înstrăinat de propriul Sine și caută disperat completarea din exterior. În opoziție, solitudinea asumată este un act de autonomie. În solitudine, individul are capacitatea de a rezista presiunilor de grup și de a se retrage pentru a delibera, construindu-și reziliența. Vulnerabilitatea în fața manipulării decurge exclusiv din prima formă, din acel gol identitar care cere a fi umplut.

    Tabelul următor ilustrează anticipativ dinamica acestei vulnerabilități, făcând distincția clară între singurătatea neintegrată și solitudine:

    Starea interioară Raportarea la propria persoană Mecanismul agenției Vulnerabilitatea rezultată
    Singurătatea neintegrată Evitarea disconfortului intern prin căutarea constantă a validării. Cedare treptată prin microcompromisuri și teama de abandon. Expunere maximă la bombardamentul din dragoste și izolare socială.
    Solitudinea asumată Confruntarea constructivă a defectelor în propriul spațiu mintal. Păstrare activă, individul alegând independent direcția. Imunitate ridicată, validarea externă devenind opțională.

    După cum arată coloana dedicată mecanismului agenției din acest tabel, direcția este decisă de capacitatea subiectului de a tolera izolarea fără a o transforma într-o monedă de schimb pentru afecțiune. O persoană poate fi înconjurată de o multitudine de oameni și totuși să trăiască o singurătate sfâșietoare dacă în acele legături nu există o înțelegere autentică. Când întreaga energie psihică este investită exclusiv în menținerea Personei, individul începe să își reprime ideile complexe. Temându-se de a fi judecat, el alege tăcerea, creând o distanță invizibilă care garantează superficialitatea oricărei conexiuni. Acest mediu sugrumat emoțional atrage o anumită tipologie de prădători.

    Această exploatare este adesea instrumentată de personalități care prezintă trăsături din Triada Întunecată (un construct psihologic ce grupează narcisismul, machiavelismul și psihopatia sub umbrela lipsei de empatie afectivă și a tendinței cronice de exploatare). Raportate la cadrul jungian, aceste individualități întruchipează o scindare extremă între Ego și Sine: au anulat complet empatia afectivă, dar au rafinat o inteligență emoțională pur cognitivă. Ei citesc cu ușurință proiecțiile și nevoile inconștiente ale celuilalt nu pentru a rezona empatic, ci pentru a decoda breșele lăsate deschise de singurătatea neintegrată. Strategia debutează de obicei prin fenomenul de bombardament din dragoste, oferind validarea absolută de care victima era înfometată.

    Este esențial să înțelegem că victimizarea nu se produce brusc. Inițial, persoana deține agenție și acceptă asumat compromisuri. Să ne imaginăm o relație incipientă în care manipulatorul solicită subtil izolarea, sugerând că prietenii victimei nu le înțeleg iubirea unică. Victima face o primă alegere conștientă, anulând o întâlnire cu acei prieteni pentru a nu strica armonia noului cuplu. Agenția nu îi este smulsă cu forța, ci este cedată treptat. Fiecare microconcesie făcută pentru a menține iluzia apartenenței reprezintă un transfer voluntar de suveranitate internă, dictat de frica reluării singurătății. Această participare decizională inițială este un amănunt fundamental, tocmai recunoașterea propriei agenții din prima etapă a relației deschide ulterior posibilitatea recuperării autonomiei, dizolvând stigmatul pasivității.

    Această incapacitate de a tolera izolarea nu apare însă din neant. Așa cum am anticipat în structura cascadei vulnerabilității, singurătatea neintegrată este adesea simptomul unui ego rigid. Când egoul refuză flexibilitatea și reprimă masiv aspecte ale propriei ființe, el creează un clivaj interior care se resimte ca un vid alienant. Astfel, rigiditatea egoului devine motorul care generează și întreține durerea singurătății, pregătind terenul pentru următoarea verigă a vulnerabilității: colapsul distanței reflexive.

    3. Distanța reflexivă și spațiul dintre stimul și reacție

    Abordând al doilea pilon al vulnerabilității (rezultat direct din epuizarea emoțională descrisă anterior), acest capitol argumentează că libertatea interioară a individului depinde structural de capacitatea de a cultiva distanța reflexivă. Acest spațiu psihic funcționează ca un amortizor ce neutralizează automatismele intenționat declanșate de tacticile de manipulare.

    Capacitatea de a rezista presiunilor externe și constrângerilor de percepție depinde în mod critic de prezența gândirii reflexive. Psihiatrul și fondatorul logoterapiei, Viktor Frankl, atrăgea atenția asupra faptului că între stimul și reacție există mereu un spațiu, iar în acel spațiu rezidă capacitatea omului de a-și alege răspunsul. Introducerea viziunii logoterapiei aici nu este întâmplătoare, deoarece oferă un punct de contrast și convergență valoros. Frankl ancorează această suspendare a reacției în exercitarea voinței conștiente de a găsi sens, o decizie asumată rațional și moral de către individ. Jung, pe de altă parte, mută centrul de greutate către o colaborare între instanțe, ancorând rezistența în funcția transcendentă și în procesul simbolic. Cu toate că mecanismele diferă fundamental, voința conștientă la Frankl versus sinteza dintre conștient și inconștient la Jung, ambele școli converg asupra aceleiași concluzii vitale: suspendarea automatismului reactiv este precondiția absolută a libertății interioare.

    Tabelul de mai jos sintetizează anticipativ dinamica procesării unui stimul și impactul acesteia asupra relației:

    Dinamica procesării Rolul funcției transcendente Impactul asupra formării simbolului Consecința în plan relațional
    Colaps reactiv Inactivă, dominată de afectul imediat. Nul, individul repetă compulsiv un tipar vechi. Validarea scenariului manipulator.
    Reprimare rigidă Negată prin forțare volițională. Tensiunea se acumulează ca stres somatic. Oferă ulterior muniție emoțională abuzatorului.
    Distanță reflexivă Activă, mediind între pulsiune și rațiune. Generează o a treia cale (soluția creativă). Menținerea suveranității și dezamorsarea șantajului.

    Pentru Jung, procesul medierii între presiunea oarbă a stimulului și atitudinea asumată rațional se realizează prin funcția transcendentă. Funcția transcendentă nu reprezintă un simplu efort de autocontrol sau o suprimare voită, ci este capacitatea psihicului de a genera o tranziție de la un conflict intern sever la o sinteză nouă, neașteptată. Atunci când individul suportă tensiunea a două tendințe opuse fără a acționa impulsiv, această funcție produce un simbol integrator. Deoarece Jung consideră visele unul dintre vehiculele privilegiate ale funcției transcendente, acest simbol poate lua forma unui vis recurent. Să presupunem, spre exemplu, că o persoană se află sfâșiată între nevoia acută de a părăsi o structură profesională abuzivă și teroarea paralizantă a lipsei de securitate financiară. Rămânând în distanța reflexivă și refuzând atât demisia impulsivă, cât și supunerea oarbă, psihicul său poate genera un vis recurent despre un pod în construcție suspendat deasupra unui abis, dar susținut de cabluri luminoase. Acest simbol oniric mediază conflictul, sugerând individului că tranziția este periculoasă (abisul), dar susținută de propria sa energie vitală (lumina), oferind o terță perspectivă care deblochează energia și redă claritatea acțiunii.

    În absența acestui spațiu, psihicul acționează pe baza unor complexe declanșate automat. Manipularea depinde critic de colapsul acestui spațiu de conștientizare. Agenții manipulării folosesc constant presiunea pentru a instaura false stări de urgență. Menținerea individului într-o perpetuă alertă emoțională este vitală, deoarece gândirea reflexivă, o funcție lentă, nu mai primește resursele necesare. Când victima cedează presiunii și răspunde prin atac panicat sau conformism imediat, ea abandonează voluntar propria agenție, transformându-se într-un simplu executant al voinței externe.

    Suspendarea reactivității transformă persoana din executant într-un martor lucid, recâștigând astfel teritoriul agenției pierdute. Refuzând să muște momeala urgenței false, victima rupe lanțul de reacții cauzale dorite de agresor, silindu-l pe acesta să își piardă predictibilitatea și controlul tactic. Astfel, autocunoașterea autentică și eliberarea din matricea condiționărilor se dobândesc tocmai prin acest efort susținut de a locui conștient în spațiul tensionat dintre stimul și decizie. Menținerea activă a acestei distanțe reflexive este o expresie directă a agenției victimei, reafirmând capacitatea sa de a nu fi doar un obiect al acțiunii, ci un subiect care alege. Așa cum ilustrau liniile tabelului prezentat la începutul capitolului, extremele reacționale servesc deopotrivă intenției manipulatorului. O descărcare la furie îi dă abuzatorului motiv să pozeze în victimă, în timp ce reprimarea stoică creează o fisură de stres ce va fi fructificată ulterior. Doar ancorarea asumată în spațiul reflexiv poate stopa contagiunea intenției nocive.

    4. Iluzia forței (cum rigiditatea egoului generează vulnerabilitate)

    Există în conștiința populară o asociere ilogică între ideea de putere psihologică și atitudinea de rigiditate a caracterului. O persoană inflexibilă, dominată de certitudini nechestionabile, este percepută fals drept purtătoarea unui ego redutabil. Din perspectiva psihologiei de profunzime, o astfel de construcție constituie o veritabilă anomalie ce invită dezastrul. Această vulnerabilitate decurge dintr-o deformare severă a axei care leagă Egoul de Sine. Un ego sănătos funcționează permeabil. Pe de o parte, el conștientizează erorile și absoarbe disconfortul criticilor fără a se prăbuși. Pe de altă parte, rămâne deschis către mesajele perturbatoare, dar necesare, care provin din inconștient. În schimb, egoul rigid suferă de inflație psihică. Convins că guvernează absolut voința și moralitatea individului, refuză să accepte că deține instincte primare și o Umbră de care este responsabil.

    Tabelul comparativ de mai jos conturează anticipativ diferențele fundamentale de reacție sub presiune între cele două tipologii ale egoului:

    Tipologia Egoului Gestionarea propriului eșec Dinamica agenției sub presiune Flexibilitatea asumată
    Egoul rigid Găsirea compulsivă a țapilor ispășitori externi. Cedează agenția din disperarea de a evita confruntarea cu Umbra. Se fracturează rapid la stres, reacționând emoțional.
    Egoul permeabil Autoanaliză blândă și asumarea responsabilității. Își păstrează suveranitatea refuzând șantajul prin rușine. Absoarbe șocul și adaptează strategia din mers.

    Analizând tipologiile din acest tabel, putem distinge mai clar scenariile din viața reală. Cu cât egoul se cramponează mai tare de iluzia purității sale, cu atât cheltuiește cantități uriașe de energie pentru a trimite în refulare toate aspectele care îl contrazic. Umbra ajunge să erupă necontrolat. Aici apare portița de exploatare. Manipulatorul trebuie doar să observe atent momentele de asimetrie dintre imaginea lustruită pe care persoana vrea să o impună și deciziile ei reale de zi cu zi. Pentru a evita rușinea și a-și susține fațada, egoul rigid își cedează el însuși agenția, preferând să fie controlat prin lingușire decât să-și asume imperfecțiunea.

    Această dinamică de putere ne obligă să integrăm o limitare teoretică majoră: ce se întâmplă atunci când manipulatorul însuși a navigat prin propriul inconștient? Anumiți indivizi din spectrul Triadei Întunecate, descriși în Capitolul 2, dezvoltă o formă de pseudo-individuare sau conștientizare fără integrare morală. Deși teoria jungiană canonică leagă individuarea de o dimensiune etică intrinsecă, postulat subliniat și de Edward Edinger în studiile sale asupra axei Ego-Sine, realitatea clinică ne arată că acești prădători pot deveni extrem de conștienți de dinamica Umbrei și de propriile complexe. Însă, în loc să folosească această introspecție pentru o integrare etică, o aplică strict instrumental, ca armă. Acești prădători sofisticați nu acționează dintr-o reactivitate oarbă; ei scanează direct axa Ego-Sine a victimei și lovesc chirurgical în acel punct cec pe care victima îl refulase cel mai puternic.

    Pentru a face diferența de reziliență cu adevărat palpabilă, ne putem imagina un scenariu la birou în care un angajat este criticat incisiv pentru o eroare de execuție. Angajatul cu un ego rigid, identificat deplin cu statutul său de profesionist infailibil, va resimți critica drept o amenințare letală la adresa identității sale. Ca răspuns, va recurge imediat la un contraatac virulent, justificări zgomotoase și învinuirea colegilor, oferind exact reacția instabilă de care un manipulator se va folosi pentru a-l discredita. Pe de altă parte, angajatul cu un ego flexibil va simți jena de moment, dar va păstra distanța reflexivă. Analizând validitatea criticii, el își va asuma direct partea de vină, dezarmând complet potențialul instigator care dorea doar să producă o criză publică. Această flexibilitate conștientă și refuzul de a reacționa din frică reprezintă un act asumat de agenție.

    5. Umbra, proiecțiile și distorsionarea realității

    Analizarea fenomenologiei influențelor coercitive pretinde o cunoaștere a modului cum propriul nostru psihic este folosit drept complice. Conceptul Umbrei și procesul de proiecție oferă cea mai revelatoare explicație pentru succesul manipulării de tip gaslighting. Pentru a ocoli tensiunea recunoașterii pulsiunilor negative, mintea folosește proiecția, un mecanism de apărare inconștient prin care expulzează trăsăturile inacceptabile, lipindu-le artificial de personalitatea altei persoane.

    În relațiile abuzive interpersonale, dinamica proiecției joacă un rol central în tacticile de distorsionare a realității. Este necesară o precizare terminologică absolută, anume că proiecția însăși este un proces inconștient. Manipulatorul nu alege deliberat să proiecteze. Din cauza unui ego rigid care refuză confruntarea propriei Umbre, psihicul său expulzează automat propria vinovăție. Ceea ce devine o tactică intenționată și conștientă este acțiunea ulterioară (gaslightingul). Deși manipulatorul nu conștientizează neapărat originea psihologică a proiecției sale, el observă cu acuitate și exploatează conștient starea de confuzie pe care efectul acesteia o creează asupra victimei. Astfel, el insistă agresiv ca victima să accepte această realitate deformată ca pe unicul adevăr.

    Eficiența acestei tactici mortale de alienare depinde masiv de conceptul de cârlig proiectiv (Projektionshaken), dezvoltat în tradiția analitică de Jung însuși și detaliat ulterior de analista Marie-Louise von Franz. Cârligul reprezintă un defect minor, o slăbiciune asumată parțial sau o calitate vulnerabilă a victimei (de exemplu, o tendință reală spre evitare a conflictului), de care inconștientul abuzatorului se agață pentru a-și descărca propria Umbră, amplificând acel defect la proporții inumane. Să presupunem că un abuzator pierde în mod repetat obiecte importante din cauza propriei sale dezorganizări. În loc să își asume responsabilitatea, el o acuză furios pe parteneră că îi ascunde intenționat lucrurile, agățându-se de cârligul proiectiv reprezentat de faptul că ea este, natural, o persoană ușor distrată. Asediată zilnic de această acuzație exacerbată, victima își epuizează resursele cognitive și ajunge să își pună sub semnul întrebării însăși memoria și discernământul.

    Trecerea de la scena cu cheile pierdute la propaganda națională nu este spontană, ci se realizează printr-un pas intermediar fundamental: contagiunea emoțională de grup. Într-o comunitate, afectele puternice și anxietatea generate de proiecțiile rigide ale câtorva indivizi iradiază rapid, „infectând” psihicul celorlalți membri. Oamenii, motivați de nevoia atavică de a aparține grupului și de a evita excluderea, preiau empatic această frică viscerală și o integrează în comportamentul lor, fără a o mai trece prin filtrul analizei logice.

    Odată ce această contagiune saturează rețeaua socială, mecanismul individual se grefează pe substratul inconștientului colectiv. Inconștientul colectiv, definit în capitolul introductiv ca o moștenire psihică universală, funcționează aici ca o vastă rețea de rezonanță care permite saltul de scală. El face posibil ca fricile individuale să fie preluate și transformate în temeri arhetipale, transformând patologia unei relații izolate într-o psihoză de masă. Fenomenul capătă astfel amploare sistemică.

    O națiune confruntată cu un eșec economic dezvoltă frustrări imense pe care refuză să și le asume administrativ. Aici, liderii propagandiști preiau adesea rolul arhetipal al Păcăliciului (Trickster); ei nu inventează ura din neant, ci oferă maselor un uriaș cârlig proiectiv exterior (o minoritate sau un grup cu trăsături diferite) pe care întreaga societate își poate descărca Umbra colectivă. Violența devine scuzabilă, deoarece masele cred orbește că distrug sursa răului obiectiv, când, în realitate, atacă o simplă oglindă a propriului lor întuneric nerecunoscut.

    6. Concluzii privind procesul de individuare ca scut psihologic

    Traseul nostru analitic a relevat mecanica sofisticată prin care agenția umană este dizolvată secvențial. Am demonstrat cum un ego inflexibil generează durerea singurătății neintegrate, care, la rândul ei, atrage seducția manipulatorului. Am explicat apoi cum epuizarea emoțională determină colapsul distanței reflexive, lăsând mintea să opereze prin automatisme și permițând fenomenelor de distorsionare, propulsate de dinamica cârligelor proiective și de contagiunea de grup, să se instaleze la nivel individual și colectiv.

    Soluția de profunzime pe care arhitectura analitică o înaintează poartă numele de individuare. Această acțiune vizează reconcilierea conștientului cu zonele sale obscure, acționând direct la sursa vulnerabilității. Individuarea lucrează la nivelul reconfigurării identității de profunzime, vizând demontarea însăși a cârligului proiectiv. O persoană care face efortul de a-și coborî egoul din poziția sa rigidă și se confruntă cu invidia, traumele sau defectele neintegreate din interiorul propriei Umbre, taie firele prin care poate fi manevrată. Odată ce un individ cunoaște și acceptă la sine o pulsiune care altădată îi producea o rușine incontrolabilă, viitorul abuzator își va arunca șantajul emoțional în vid. Lipsit de cârligul psihologic al nesiguranței ascunse, instrumentul manipulativ devine ineficient.

    Trebuie însă reluată aici o limitare importantă, anticipată în analiza egoului rigid: confruntarea cu un manipulator care a atins el însuși o formă de pseudo-individuare perversă. Atunci când prădătorul (corelat adesea cu inteligența emoțională întunecată) este conștient de propria Umbră și o folosește strategic, fără o integrare etică, protecția oferită de individuarea victimei nu reprezintă o armură magică impenetrabilă. În fața unei asemenea agresiuni sofisticate, individuarea nu garantează că individul nu va fi niciodată atacat, ci funcționează ca un radar de o precizie vitală. Ea transformă o vulnerabilitate altminteri oarbă într-o chemare la vigilență continuă și lucidă.

    Deznodământul restabilirii axei dintre Sine și Ego refuză statutul de victimă permanentă. Așa cum observam la început, individul posedă mereu o scânteie de agenție, chiar și în faza de microconcesii în care o cedează din frică sau din foamea de afecțiune. Aducerea acestei agenții în prim-plan pe calea individuării transformă vindecarea dintr-o simplă reparare a unei traume într-un act asumat de curaj. Eliberarea de falsitatea măștilor sociale nu constituie doar o tehnică mentală izolată, ci un angajament solitar prin care omul își recâștigă suveranitatea intimă, devenind mult mai rezistent la ingineriile realităților contrafăcute.

    Surse bibliografice:

    1. Edinger, Edward F. Ego and Archetype: Individuation and the Religious Function of the Psyche. New York: Putnam, 1972.
    2. Frankl, Viktor E. Man’s Search for Meaning. Boston: Beacon Press, 2006.
    3. Jung, Carl Gustav. Aion: Researches into the Phenomenology of the Self. Collected Works of C.G. Jung, Volume 9 (Part 2). Princeton, NJ: Princeton University Press, 1959.
    4. Jung, Carl Gustav. Two Essays on Analytical Psychology. Collected Works of C.G. Jung, Volume 7. Princeton, NJ: Princeton University Press, 1953.
    5. Krüger, Rafael. “The Definitive Shadow Work Guide (By a Jungian Therapist).” Rafael Krüger. Accesat 22 martie 2026.
    6. Minulescu, Mihaela. Introducere în analiza jungiană. București: Editura Trei, 2001.
    7. Perry, Christopher. “The Shadow.” The Society of Analytical Psychology. Accesat 22 martie 2026.
    8. Sweet, Paige L. “The Sociology of Gaslighting.” American Sociological Review 84, no. 5 (2019): 851-875.
    9. “The Ego in Jungian Psychology: Why We Need It.” Counseling in Zurich. 5 februarie 2020.
    10. “The Jungian Shadow and Self-Acceptance.” Nautilus, Texas A\&M University at Galveston. Accesat 22 martie 2026.
    11. Vioreanu, Ana-Maria. “Gaslighting – manipularea psihologică: semnale de alarmă și metode de prevenție.” Monitorul Psihologiei, 13 august 2020.
    12. von Franz, Marie-Louise. Shadow and Evil in Fairy Tales. Boston: Shambhala, 1995.
    13. “Loneliness and Solitude: A Jungian View.” Jung Society of Utah. 28 noiembrie 2016.
  • Manipularea cognitivă și suveranismul în România (2020-2025)

    1. Introducere

    Alegerile prezidențiale din noiembrie 2024 și anularea acestora prin Hotărârea Curții Constituționale nr. 32 din 6 decembrie 2024 marchează o cotitură fără precedent în evoluția democratică a României. Pentru prima dată în istoria unei republici constituționale, o instituție judiciară a anulat în întregime un scrutin prezidențial, invocând nu frauda electorală tradițională, ci vicierea procesului decizional al electorilor prin manipulare cognitivă sistematică și exploatare a algoritmilor platformelor de social media. Motivarea Curții Constituționale subliniază că procesul electoral a fost „viciat pe toată durata desfășurării sale” prin dezinformare și amplificarea artificială a unui candidat, ceea ce a încălcat în mod flagrant principiile fundamentale ale unei alegeri libere și corecte. [1][2]

    Această decizie ridică o dilemă constituțională profundă: cum poate o instituție nealesă să anuleze voința populară în numele protecției drepturilor fundamentale, și unde se află granița între apărare legitimă a statului de drept și risc de autoritarism sub cuvântul „protecție”? Răspunsurile necesită o analiză multiliniară care conectează evoluția suveranismului politic românesc în perioada 2020-2025, mecanismele științifice ale manipulării cognitive, cadrul constituțional și implicațiile juridice și geopolitice. [1][2]

    2. Suveranismul românesc: între frustrare autentică și cooptare ideologică

    2.1. Originile și evoluția suveranismului contemporan

    Suveranismul românesc nu este un fenomen de data recentă, ci o reîncadrare deliberată a narativelor precomuniste și comuniste într-un context geopolitic nou. Cercetătorul Ioan Stanomir observă că termenul de suveranism a fost confiscat de grupuri extremiste care utilizează eticheta pentru a masca ideologii profunde: conspiraționism, simpatie către Federația Rusă, antisemitism, xenofobie și tendințe totalitare. Sub eticheta acestui cuvânt stă o ideologie substantiv diferită de patriotismul tradițional.

    Rădăcinile se găsesc în narațiunea național-comunistă din perioada Ceaușescu, care promova o imagine a României în „lupta neîncetată” pentru independență, de la Decebal la comunism, cu omitere deliberată a evenimentelor contradictorii. Suveranismul actual reactualizează această matrice prin reformulare în limbaj contemporan, adaptând-o la frustrări economice și geopolitice reale din perioada post-comunistă. [3]

    2.2. Partidele suveraniste și evoluția parlamentară (2020-2024)

    Alianța pentru Unirea Românilor (AUR), SOS România și Partidul Oamenilor Tineri (POT) au apărut în contextul unei crize economice persistente și al unui sentiment de frustrare electorală. AUR a intrat în Parlament în 2020 cu rezultate modeste, dar evoluția sa a fost exponențială: până la alegerile din 2024, formațiunea deținea 28 de mandate la Senat și 63 la Camera Deputaților. Creșterea nu s-a bazat pe programe economice detaliate, ci pe exploatarea frustrării publice și pe utilizarea retoricii suveraniste ca cuvânt-cod pentru refuzul asupra-național. [25][26]

    SOS România și POT au parcurs o traiectorie similară de ascensiune rapidă, cu SOS intrând în Parlamentul din 2024 cu 12 mandate la Senat și 28 la Camera Deputaților, iar POT cu 7 la Senat și 24 la Camera Deputaților. După alegerile anulate din decembrie 2024, ambele formațiuni au suferit fragmentări semnificative, arătând instabilitatea ideologică și personalistă a acestor structuri. [27][26]

    2.3. Contextul socioeconomic și psihologic

    Studiile sociologice evidențiază că votul suveranist provine disproportionat din localitățile cu grad scăzut de dezvoltare, mici, izolate și cu experiență limitată de migrație internațională. Cercetătorul Sorin Cucerai a identificat o discrepanță psihologică subtilă dar profundă: creșterea puterii economice a unor segmente ale clasei muncitoare nu a fost însoțită de creșterea corespunzătoare a prestigiului social, care rămâne apanajul segmentului crescut educațional și cultural. Această disparitate între putere economică relativă și statutul social perceput a creat condiții receptive pentru narațiuni care promit o „recâștigare a demnității” prin suveranitate și „patriotism agresiv.” [44][43]

    Criza economică din România a fost persistentă: emigrarea în masă a forței de muncă tinere, inechitatea în accesul la servicii publice de calitate și sentimentul generalizat că elitele au trădat țara. Aceste frustrări sunt fundamentate în realitate și nu trebuie ignorate ca simple „manipulări”. Sunt, totuși, combustibilul perfect pentru operațiuni de manipulare cognitivă sofisticate care exploatează emoții reale în scopuri geopolitice. [8][44][43]

    3. Mecanismele manipulării cognitive: cadru teoretic și aplicație

    3.1. Definiția și structura conceptuală

    NATO Allied Command Transformation (ACT) a finalizat între 2023-2024 un concept comprehensiv privind războiul cognitiv (Cognitive Warfare), definindu-l drept „activități conduse în sincronizare cu alte instrumente de putere, pentru a afecta atitudini și comportamente prin influențarea, protejarea sau perturbarea cogniției la nivel individual, de grup sau de populație, în scopul obținerii unui avantaj asupra adversarului.” Aceasta recunoaște o realitate a conflictelor contemporane: mintea umană a devenit o țintă critică, mai importantă chiar decât teritoriul sau infrastructura fizică. [6][7]

    Cadrul DISARM (DISinformation Analysis & Risk Management) al Hybrid Centre of Excellence din Finlanda clasifică operațiunile de interferență informațională pe patru niveluri ierarhice distincte: strategic (obiective multianuale), tactic (operațiuni de scurtă durată), narativ (poveștile care structurează percepția) și tehnic (artefactele individuale – postări, videoclipuri, mesaje). În cazul alegerilor românești din 2024, stratificarea acestei piramide dezvăluie o orchestrare coordonată pe toate cele patru niveluri: strategic (destabilizarea geopolitică a României), tactic (promovarea candidatului Călin Georgescu pe TikTok), narativ (dihotomia „România supusă versus România suverană”) și tehnic (73,2 milioane de vizualizări, 130 de influenceri coordonați, 27.217 conturi bot active). [8][23]

    3.2. Biasurile cognitive exploatate sistematic

    Psihologia experimentală a identificat prejudecăți cognitive sistematice care distorsionează judecata în situații complexe. Pioonierii Amos Tversky și Daniel Kahneman au demonstrat că oamenii utilizează euristici (scurtături mentale) pentru a procesa rapid realitatea sub constrângeri de incertitudine și resurse cognitive limitate. Campania din 2024 a exploatat strategic fiecare dintre acestea: [8][24][12][14][19][13]

    Biasul de confirmare activează tendința de a căuta și interpreta informații care validează credințele preexistente. Cetățenii care deja credeau că „NATO domină România” au găsit ușor conținut pe TikTok care confirma această convingere, iar algoritmi platformei au amplificat exponențial acest efect prin recomandări personalizate. [9][24][12]

    Biasul de disponibilitate evaluează probabilitatea unui eveniment proporțional cu frecvența expunerii mentale la acesta. Eticheta #CălinGeorgescu, care a generat 73,2 milioane de vizualizări în 23 de zile, a marcat în mod profund percepția publică, făcând candidatul să pară dominant, indiferent de realitatea sondajelor. [8][23][12][17]

    Efectul iluziei adevărului produce o creștere a credibilității unor afirmații prin simpla repetare. Mesajele „România este supusă”, „Georgescu este singurul curat”, „NATO ne prejudiciază” au fost repetate de 130 de influenceri pe cinci platforme majore de-a lungul a doar trei săptămâni, penetrând în conștiința colectivă. [8][23][12][24]

    Biasul de grup generează favoritism puternic pentru propriul grup și denigrarea grupurilor externe. Campania a construit narațiunea tribală și toxică „noi, adevărații români” versus „ei, sistemul corupt, vânzătorii de țară”, activând mecanisme psihologice profunde de loialitate identitară și ură internă. [12][8][24]

    Biasul de autoritate crește în perioade de criză și incertitudine. Georgescu a fost poziționat drept lider „vertical” și autoritar, promițând restabilirea ordinii în context de anxietate economică reală. [12][8][24]

    Biasul de complexitate redusă a dus la o preferință pentru informații simple și ușor de reținut. Mesajul lui Georgescu era binar și accesibil: „NATO rău, Georgescu bun”, în timp ce formațiunile tradiționale prezentau politici complexe privind economia, societatea și relațiile internaționale. [8][24][12]

    3.3. Etapele operaționale ale campaniei

    Literatura NATO și studiile academice identifică o structură operațională secvențială care a fost aplicată în cazul românesc cu o sofisticare remarcabilă. [8]

    Etapa 1: Cercetarea și segmentarea audienței au implicat construirea unor baze de date cu profiluri psihologice, comportamentale și de rețea socială. Microtargetingul psihografic a permis adaptarea mesajelor la vulnerabilitățile specifice ale fiecărui segment de populație, cu accent pe România rurală, localități izolate, persoane cu o alfabetizare informațională limitată și cu o frustrare economică reală. [8]

    Etapa 2: Construcția narațiunii (coerente) a definit un cadru interpretativ unificat: problema (România vândută Occidentului), cauza (elitele corupte, serviciile capturate de occident) și soluția (Călin Georgescu drept mesia politic). [8]

    Etapa 3: Testarea și optimizarea au implicat teste A/B pe platforme digitale pentru a identifica versiunile de mesaje cu cel mai mare angajament emoțional. Studiile arată că conținutul polarizant și incendiar generează cu 40% mai mult angajament decât conținutul moderat, și algoritmii platformelor sunt calibrați exact pentru a exploata această realitate psihologică. [8]

    Etapa 4: Sincronizare și amplificare coordonată, lansând simultan mesaje în momente favorabile prin rețele de boți și conturi bot. Rețeaua de 27.217 conturi TikTok a fost activată în lunile premergătoare alegerilor pentru a genera volume masive de comentarii, like-uri și share-uri care creează impresia unei mișcări organice de masă. [8][23]

    Etapa 5: Normalizarea și ancorarea au consolidat narațiunea prin repetare intensă și redistribuire coordonată până la internalizarea cadrului ca „bun simț cultural” și parte integrantă a discursului cotidian. [8]

    Etapa 6: Negarea și camuflajul plauzibil au angajat strategii de negare și mutare constantă a țintelor. Operatorii au utilizat VPN-uri, rotația IP-urilor și serviciilor comerciale aparent neutre pentru a ascunde originea operațiunilor. [8]

    3.4. Rolul platformelor digitale și opacitatea algoritmilor

    Raportul oficial francez VIGINUM (Vigilanță și Protecție contra Dezinformării) dezvăluie cum TikTok a jucat un rol central în operațiune, nu din cauza neglijenței, ci din cauza unei vulnerabilități structurale în algoritmul de recomandare, ușor exploatabilă. Platforma, cu aproximativ 9 milioane de utilizatori în România la data alegerilor, a devenit vectorul principal de diseminare a mesajelor politice. [8][23]

    Candidatul Călin Georgescu, creditat cu mai puțin de 1% în sondajele oficiale, cu doar patru săptămâni înainte de alegeri, a obținut 22,94% din voturi în primul tur exclusiv prin utilizarea TikTok. Hashtagul #CălinGeorgescu a acumulat peste 73,2 milioane de vizualizări în 23 de zile. Profesorul Corneliu Bjola de la Universitatea Oxford explică că TikTok creează „realități paralele” prin algoritmi, fiecărui utilizator fiindu-i prezentată o versiune personalizată a realității optimizată pentru angajament emoțional, nu pentru acuratețe factică. Aceasta produce fragmentare cognitivă la nivelul populației, unde diferite grupuri dezvoltă percepții radical divergente ale aceleiași realități politice. [23][24]

    4. Cadrul constituțional și încălcarea drepturilor fundamentale

    4.1. Articolul 34 din Constituția României și protecția sănătății psihice

    Articolul 34 din Constituția României prevede că dreptul la ocrotirea sănătății este garantat și că statul are obligația de a lua măsuri pentru asigurarea igienei și a sănătăţii publice, inclusiv „alte măsuri de protecţie a sănătăţii fizice și mentale a persoanei.” Această dispoziție nu se limitează la sănătatea fizică, ci include explicit protecția sănătății mintale printr-o obligație pozitivă clară a statului. [39]

    În interpretarea constituțională modernă, dreptul la ocrotirea sănătății este un „drept-creanță”, adică statul are obligația pozitivă generală de a-l garanta efectiv. Obligația se corelează cu articolul 1, alineatul 3, care definește România drept stat social, și articolul 4, alineatul 1, care prevede solidaritatea cetățenilor drept fundament al statului. Protecția sănătății psihice publice nu este, prin urmare, o obligație secundară, ci una constituțional fundamentală. [39][41][42][14]

    Manipularea cognitivă sistematică, de proporțiile celor documentate în alegerile din 2024, constituie o încălcare directă a dreptului constituțional la protecția sănătății psihice publice din mai multe motive: [1][2][8]

    Perturbarea proceselor cognitive la nivel de populație. Campania a inundat spațiul informațional cu volume masive de informații false, contradictorii și ambigue, producând confuzie cognitivă sistematică și incapacitate de procesare rațională. Aceasta constituie o agresiune directă asupra capacității cetățenilor de a lua decizii informate. [8]

    Eroziunea increderii în instituții și fragmentarea coeziunii sociale. Metanarațiunea suveranistă a prezentat instituțiile democratice (NATO, UE, serviciile de securitate) ca dușmani și trădători, erodând increderea în structurile care asigură coeziunea socială și protecția sănătății publice. Aceasta creează dezorganizare socială cu efecte psihologice negative la nivel colectiv. [8]

    Amplificarea contagiunii emoționale negative. Rețeaua de boți și influenceri a amplificat sentimente de frică, furie și indignare morală, producând contagiune emoțională – sincronizarea stărilor afective negative la nivel de grupuri online. Cercetări în neurobiologie demonstrează că aceasta produce efecte maladaptive: creșterea anxietății, depresiei, comportamentelor agresive și decuplare socială. [8]

    Exploatarea sistematică a vulnerabilităților psihologice individuale. Prin microtargeting psihografic, campania a adaptat mesajele la vulnerabilitățile specifice ale fiecărui utilizator, exploatând deficite de cunoaștere (exactă), viziuni asupra lumii preexistente, experiențe emoționale negative și alfabetizarea informațională limitată. Aceasta constituie o formă de abuz psihologic la scară de populație. [8]

    4.2. Teoria controlului reflexiv și autonomia electorală

    Teoria militară rusă a dezvoltat conceptul de control reflexiv – furnizarea de informații selectate unui adversar pentru a-l determina să ia decizii care favorizează inițiatorul, dar pe care victima le percepe ca fiind libere și raționale. Conceptul, inițiat de strategii militari ruși în anii 1960, a evoluat într-un instrument de influență geopolitică globală. [9][10][11]

    Diferența crucială este că victima percepe decizia ca fiind liberă și rațională, când în realitate este orchestrată prin furnizarea selectivă și amplificarea strategică de informații. În contextul alegerilor din 2024, mecanismul s-a manifestat prin furnizarea sistematică de informații construite strategic, care au condus la decizii de vot aparent independente, dar de fapt orchestrate. Rețeaua de 27.199 conturi TikTok, activate cu doar una-două săptămâni înainte de alegeri, constituie o manifestare directă a controlului reflexiv. [8][23][9]

    Din perspectiva constituțională, controlul reflexiv încalcă articolul 1, alineatul 1, care definește România drept stat de drept – concept care include fundamental protecția autonomiei individuale și a voinței electorale libere. Autonomia electorală este o componentă esențială a demnității umane și a drepturilor fundamentale. Orice încercare sistematică de a manipula procesele cognitive pe care se bazează decizia electorală constituie o încălcare flagrantă a acestui drept fundamental. [2][8]

    4.3. Articolul 369 din Codul Penal și incitarea la ură

    Articolul 369 din Codul Penal prevede că incitarea publicului, prin orice mijloace, la violență, ură sau discriminare împotriva unei categorii de persoane se pedepsește cu închisoare de la 6 luni la 3 ani. Elementele constitutive sunt: adresare publică (comunicare la scară largă), mijloace (orice vehicul), incitare la ură sau discriminare și țintă (o categorie de persoane). [40]

    Campania suveranistă din 2024 a îndeplinit toate aceste elemente: 130 de influenceri pe cinci platforme majore cu expunere estimată la zeci de milioane de utilizatori; conținut video, text și imagini; crearea narațiunii tribale „noi autentici versus ei vânzători de țară”; și vizarea grupurilor externe (NATO, servicii, elitele politice). Curtea de Apel din Bruxelles a hotărât în mai 2025 că materialele video de pe TikTok conținând informații false, manipulative sau generate cu AI, vizând discreditarea candidaților electorali, au constituit încălcări ale normelor de moderare și pun în pericol integritatea proceselor electorale. Aceasta confirmă că manipularea cognitivă de asemenea proporții nu este doar problemă constituțională abstractă, ci o infracțiune penală concretă. [40][8][23][4]

    5. Hotărârea CCR nr. 32/2024 și dilema constituțională fundamentală

    5.1. Motivarea și conținutul deciziei

    Curtea Constituțională, în ședința din 6 decembrie 2024, a anulat întregul proces electoral invocând articolul 146, litera f) din Constituție, care îi conferă competența de a veghea la respectarea procedurii pentru alegerea Președintelui și de a confirma rezultatele. Motivele specifice au inclus exploatarea abuzivă a algoritmilor platformelor, dezinformarea sistematică, finanțarea mascată a campaniei (candidatul declara zero cheltuieli) și vicierea procesului electoral pe toată durata. [1][2]

    Decizia a fost unanimă, ceea ce arată o convergență rară la nivel de magistratură constituțională asupra gravității situației. Curtea a invocat principiile fundamentale, că democrația constituie element esențial al ordinii constituționale și patrimoniului constituțional european, și că dreptul la alegeri libere exprimă cea mai profundă formă de organizare a unei societăți democratice. [1][2]

    5.2. Dilema constituțională și tensiunea între principii

    Decizia de anulare a reprezentat o alegere între două principii democratice în aparență contradictorii: suveranitatea poporului (dreptul majorității de a alege și a fi reprezentată) și protecția drepturilor fundamentale (limitarea majorității prin drepturi inviolabile). Curtea a ales protecția libertății electorale individuale asupra majorității numerice. Aceasta implică recunoașterea că o manipulare cognitivă de amploare și suficient de sofisticată poate anula valabilitatea unui vot, nu pentru că voturile individuale sunt greșite per se, ci pentru că contextul în care sunt exprimate este viciat sistematic. [2]

    Totuși, decizia ridică întrebări profunde care rămân parțial nerezolvate: poate o instituție constituțională nealesă să anuleze voința populară în numele protecției? Unde se află granița între apărare legitimă a statului de drept și risc de autoritarism sub cuvântul „protecție”? [2]

    6. Fragmentarea mass-mediei și captarea informației în România (2020-2024)

    6.1. Transformări în peisajul mediatic

    Rapoartele Centrului pentru Jurnalism Independent, publicate pe parcursul anilor 2020-2024, evidențiază că presa din România a traversat o fragmentare și captare politică semnificative. Finanțarea mass-mediei s-a caracterizat prin dependență excesivă de fonduri publice sub diverse forme: subvenții mascate, publicitate netransparentă din partea guvernului și a partidelor politice. Această situație a erodat semnificativ independența editorială, creând condiții propice pentru amplificarea narativelor suveraniste de către actori interesați în destabilizare. [28][29][32][31]

    Încrederea publică în presă a plonjat de la 80% în anii 1990 la 32% în 2023, cel mai scăzut nivel de până atunci. Marile trusturi media au fost capturate parțial de interese politice și economice, producând autocenzură și absența criticii la adresa unor factori politici majori. Coincidența acestei fragmentări cu ridicarea suveranismului nu este accidentală: o presă slăbă și divizată este mai vulnerabilă la operațiuni de influență. [30][31][32]

    6.2. Rolul determinant al TikTok

    Cu toate acestea, rolul decisiv l-a jucat TikTok. Cercetări declasificate arată că rețeaua de 27.217 conturi TikTok pro-Georgescu a fost activată cu doar două săptămâni înainte de alegeri. Dintre acestea, 797 conturi existau din 2016 cu activitate scăzută până în noiembrie 2024, când au fost activate la capacitate maximă. Serviciile de informații au constatat că aceste conturi au folosit adrese IP unice (nu partajate), făcând imposibilă asocierea lor la aceeași rețea din punct de vedere tehnic. Totuși, sincronizarea temporală indică o orchestrare coordonată. [8][23][24]

    Amplificarea algoritmică din partea TikTok a transformat o minoritate de utilizatori activi într-o tendință aparentă organică, determinând milioane de utilizatori pasivi să-l considere pe Georgescu drept candidatul principal, indiferent de realitatea sondajelor oficiale. [23][24]

    7. Implicații geopolitice și context internațional

    7.1. Modelul rusesc de ingerință

    Utilizarea controlului reflexiv și a manipulării cognitive are o geneză distinctă și o atribuire clară la Rusia. Aceasta a aplicat aceste tactici în mod sistematic în Ukraina (anexarea Crimeei, 2014), Georgia (2024) și Moldova (2024). Rusia a transformat controlul reflexiv în instrumentul principal de politică externă. [9][10][11]

    În cazul României, operațiunile de manipulare cognitivă au avut evident drept scop erodarea legitimității NATO și UE, slăbirea coeziunii euroatlantice și crearea unui climat de instabilitate internă, propice unei schimbări de alianță geopolitică. Contextul a fost favorabil datorită crizei economice reale, emigrării în masă a forței de muncă tinere, inechității sociale și capturării parțiale a mass-mediei. [43][44][8][9][10]

    7.2. Implicații pentru alte democrații europene

    Rapoartele europene subliniază că România nu este singura țintă. Germania, Irlanda și alte state membre UE au fost ținte similare în 2024. Aceasta arată o escaladare sistematică a razboaielor cognitive la nivel european, în care rețelele sociale cu algoritmi opaci devin mijloace privilegiate de interferență. [8]

    8. Direcții pentru apărare constituțională

    Răspunsurile la dilema constituțională ridicată de anularea alegerilor necesită o abordare multiliniară care nu să înlocuiască o amenințare externă cu o amenințare internă sub forma controlului centralizat asupra informației: [2][8]

    Reglementarea platformelor digitale prin transparență obligatorie a algoritmilor, limitărea amplificării conținutului polarizant, verificarea autenticității și demonetizarea manipulării. [8]

    Alfabetizarea informațională ca parte din curriculumul obligatoriu la toate nivelurile de educație, consolidarea rezilienței cognitive și programe specifice de media literacy în comunitățile vulnerabile. [22][28][30]

    Legislație specifică privind manipularea cognitivă prin incriminare explicită a exploatării sistematice a biasurilor cognitive în scop electoral și obligații de transparență în finanțarea campaniilor digitale. [8][40]

    Cooperare internațională multilaterală printr-un centru european de monitorizare a razboiului cognitiv sub tutela instituțiilor UE, acord NATO-UE privind standarde comune și parteneriat cu sectorul privat. [6][7][8]

    9. Concluzie

    Suveranismul românesc din perioada 2020-2025 nu a reprezentat doar o mișcare politică autentică exprimând frustrări electorale legitime. Acesta a fost cooptat și amplificat exponențial de o operațiune coordonată, de manipulare cognitivă de proporții fără precedent, care a utilizat biasuri cognitive sistematice, platforme digitale cu algoritmi optimizați pentru conținut polarizant, rețele coordonate de influenceri și boți, metanarațiuni coerente și contagiune emoțională pentru a inhiba deliberarea rațională. [8][23][24][3][25][26]

    Utilizarea acestor tehnici pentru construirea unui bazin electoral constituie o încălcare clară a Constituției României, în special a articolelor 34 (protecția sănătății psihice publice) și 1 (statul de drept), și o posibilă încălcare a articolului 369 din Codul Penal (incitare la ură și discriminare). [39][40]

    Dilema fundamentală rămâne: cum poate o republică constituțională să se apere de manipularea cognitivă fără a se transforma ea însăși într-un sistem autoritar sub pretextul „protecției”? Răspunsul nu constă în control centralizat asupra informației, ci în trei piloni complementari: fortificarea instituțională, consolidarea rezilienței cognitive și reglementarea inteligentă a platformelor digitale, care să protejeaze libertatea de exprimare în timp ce limitează manipularea de masă. [8][2]

    Hotărârea CCR din 2024 marchează un punct de cotitură epocal: în era razboaielor cognitive, legitimitatea unui proces electoral nu se măsoară doar prin numărul de voturi, ci și prin calitatea procesului decizional care a generat acele voturi. Aceasta este o lecție pe care o va trebui să o înțeleagă și să o integreze întreaga democrație occidentală. [1][2]

    Surse bibliografice:

    1. Hotnews, “Motivarea deciziei CCR pentru anularea alegerilor prezidențiale – Procesul electoral a fost viciat, au fost încălcări ale legislației care au distorsionat caracterul liber și corect al votului cetățenilor”, 6 decembrie 2024
    2. Europa Liberă, “Motivarea CCR de anulare a alegerilor prezidențiale. ‘Procesul electoral a fost viciat pe toată durata desfășurării sale’”, 6 decembrie 2024
    3. Euronews România, “CCR anulează primul tur al alegerilor prezidențiale 2024”, 5 aprilie 2025
    4. Europa Liberă, “Judecătorul care a anulat decizia CCR privind alegerile din decembrie 2024”, 24 aprilie 2025
    5. Cambridge Core, “The First Episode in the Romanian Rule of Law Saga: Joined Cases C-83/19, C-127/19, C-195/19, C-291/19, C-355/19 and C-397/19, Asociaţia ‘Forumul Judecătorilor din România’, and their follow-up at the national level”, 28 februarie 2022
    6. Frontiers in Big Data, “Cognitive warfare: a conceptual analysis of the NATO ACT framework”, 31 octombrie 2024
    7. PMC/NCBI, “Cognitive warfare: a conceptual analysis of the NATO ACT framework”, 31 octombrie 2024
    8. Serviciul Francez de Vigilență Împotriva Disinformării (VIGINUM), “Manipularea algoritmilor și instrumentalizarea influencerilor. Raport public – Alegerile din România, riscurile pentru Franța”, februarie 2025
    9. Serviciul de Informații al României, “Teoria controlului reflexiv în logica războiului hibrid”, 25 octombrie 2017
    10. GMR (Gândirea Militară Română), “Război non-liniar versus război hibrid”, 2018
    11. GMR (Gândirea Militară Română), articol de Teodor Badiu privind controlul reflexiv, 2022
    12. PMC/NCBI, “Tversky and Kahneman’s Cognitive Illusions: Who Can Solve Them, and Why?”, 11 aprilie 2021
    13. Frontiers in Psychology, “Tversky and Kahneman’s Cognitive Illusions: Who Can Solve Them, and Why?”, 11 aprilie 2021
    14. PMC/NCBI, “Cognitive biases resulting from the representativeness heuristic in operations management: an experimental investigation”, 9 aprilie 2019
    15. arXiv, “Exploring Conversational Agents as an Effective Tool for Measuring Cognitive Biases in Decision-Making”, 8 ianuarie 2024
    16. arXiv, “Analyizing the Conjunction Fallacy as a Fact”, 21 februarie 2024
    17. PMC/NCBI, “Differences in decisions affected by cognitive biases: examining human values, need for cognition, and numeracy”, 6 septembrie 2023
    18. arXiv, “Belief Bias Identification”, 25 noiembrie 2024
    19. PMC/NCBI, “Editorial: The cognitive basis for decision making under risk and uncertainty: research programs & controversies”, 26 februarie 2025
    20. Paginadepsihologie.ro, “Daniel Kahneman: Zece lucruri fascinante despre omul care ne-a arătat că nu suntem atât de raționales pe cât credem”
    21. Monitorul Psihologiei, “Bias”, februarie 2025
    22. Regina Maria, “Biasul cognitiv, o capcană mentală greu de demontat. Cum să te ferești de el”, 25 mai 2025
    23. Stirile ProTV, “Raport oficial TikTok: 27.000 de conturi au încercat să manipuleze alegerile din România în favoarea AUR și a lui Georgescu”, 1 aprilie 2025
    24. Antena3, “Profesor la Oxford: TikTok creează realități paralele și amplifica manipularea emoțională – este mai periculos decât Facebook”, 23 mai 2025
    25. Alianța pentru Unirea Românilor – Wikipedia
    26. Profit.ro, “Peste 35 de parlamentari de la SOS România, POT și AUR au creat un pol suveranist pro-UE în Parlament – Nume ales: ‘Pace – Întâi România’”, 17 iunie 2025
    27. Europa Liberă, “‘Pace – Întâi România’, un nou grup în Senat. SOS și POT nu mor, ele se transformă”, 2 septembrie 2025
    28. Centrul pentru Jurnalism Independent, “Starea mass-media din România în pragul anului super-electoral 2024”, 3 aprilie 2024
    29. Centrul pentru Jurnalism Independent, “Starea mass-media din România în pragul anului super-electoral 2024” (PDF)
    30. Cogitatiopress, “The Romanian Media System: Dynamics, Challenges, and Implications for Democracy”, 18 martie 2024
    31. Friedrich Naumann Foundation, “Press Freedom: Starea Mass Media în România”, 10 martie 2025
    32. Friedrich Naumann Foundation & Centrul pentru Jurnalism Independent & CRPE, “STAREA MASS MEDIA ÎN ROMÂNIA”, 2024
    33. Diacronia, “Izotopii generatoare de clișee jurnalistice în contextul pandemiei de Covid-19: ‘patologii la modă’ sau ‘cuvinte-oglindă’ ale realității psihosociale?”, 26 decembrie 2020
    34. MDPI – International Journal of Environmental Research and Public Health, “Public Engagement with Romanian Government Social Media Accounts during the COVID-19 Pandemic”, 28 ianuarie 2023
    35. MDPI – International Journal of Environmental Research and Public Health, “The Impact of the COVID-19 Pandemic on Independent Creative Activities in Two Large Cities in Romania”, 30 iunie 2021
    36. RTSA – Romanian Scholarly Communications Studies, “Emotional Convergence in Mass and Social Media in Election. Case Study: Romania 2014”, 30 octombrie 2017
    37. Cogitatiopress, “Media Concentration Law: Gaps and Promises in the Digital Age”, 27 iunie 2023
    38. The Hipátia Press, “Ridicule, Humour and Anti-Roma Racism in Romanian Television News: A Multimodal Critical Discourse Analysis”, 14 martie 2022
    39. Constituția României, “Articolul 34 – Dreptul la ocrotirea sănătății”
    40. Legislația României – Portal Legislativ, “Articolul 369 – Codul Penal”
    41. Strategie Națională – Portal Legislativ, document dat 30 martie 2022
    42. iNFOLex, “Dreptul la învățătură și la ocrotirea sănătății”, document academic privind Constituția
    43. Dreptul Medical, “DREPTUL LA SĂNĂTATE”, document academic 2018
    44. Friedrich Ebert Stiftung, “INEGALITĂȚI ECONOMICE DE GEN ÎN ROMÂNIA”, document oficial
    45. Document oficial ProTV, “Riscuri și inechități sociale în România”, document de analiză socioeconomică
    46. Universitatea Dunărea de Jos Galați, “Despre vitalitatea persoanelor juridice în faţa Curţii Europene a Drepturilor Omului”, publicație juridică
    47. Universitatea Transilvania Brașov, “Aspects regarding the Divergences between the Constitutional and the Conventional Control in the Field of Human Rights”, 31 iulie 2023
    48. Revista Cortes Generales (Spania), “Suspensión de la tramitación parlamentaria de enmiendas por el Tribunal Constitucional por falta de homogeneidad”, 29 iunie 2023
    49. Universitatea Arte și Științe, “THE EMERGING LANDSCAPE OF COGNITIVE WARFARE”, document academic
    50. Implicațiile propagandei în reflectarea și redefinirea realității, articol academic de politologie

  • Manipularea cognitivă în alegerile prezidențiale din România 2024

    Context temporal și factual inițial

    Alegerile prezidențiale din România din noiembrie 2024 au înregistrat o schimbare fără precedent în istoria democratică recentă a țării. La 24 noiembrie 2024, cetățenii români au participat la primul tur al scrutinului pentru alegerea președintelui. Rezultatele au evidențiat o ascensiune spectaculoasă a unui candidat independent, Călin Georgescu, care a obținut 22,94% din totalul voturilor și s-a clasat pe primul loc, calificându-se astfel pentru turul al doilea[35][36]. Această performanță electorală a reprezentat o surpriză majoră pentru analiștii politici, mai ales că, cu doar trei săptămâni înainte de alegeri, același candidat era creditat în sondajele de opinie cu mai puțin de 1% din preferințele alegătorilor[40].

    Cu doar două zile înainte de turul al doilea, pe 6 decembrie 2024, Curtea Constituțională a României a anunțat în unanimitate anularea întregului proces electoral[9]. Motivarea hotărârii nr. 32/2024 afirma că procesul electoral a fost „viciat pe toată durata desfășurării sale”, că alegătorii au fost „dezinformați prin intermediul unei campanii electorale în care unul dintre candidați a beneficiat de o promovare agresivă, derulată cu eludarea legislației naționale în domeniul electoral și prin exploatarea abuzivă a algoritmilor platformelor de social media”[37]. Hotărârea constituțională a dispus reluarea întregului scrutin în condiții de transparență și corectitudine democratică[62].

    Această secvență de evenimente ridică întrebări fundamentale privind mecanismele prin care informațiile distorsionate se propagă în spațiul public și influențează comportamentul electoral la nivel de populație. Această analiză examinează alegerile prezidențiale din 2024 din perspectiva cadrului NATO privind razboiul cognitiv și a metodologiei DISARM pentru evaluarea campaniilor de dezinformare, cu accent pe prejudecățile cognitive exploatate și pe mecanismele algoritmice de amplificare mobilizate pe parcursul acelei perioade.

    Cadrul NATO: razboiul cognitiv ca dimensiune a amenințării hibride

    Între 2023 și 2024, NATO ACT (Allied Command Transformation) a dezvoltat un concept exploratoriu dedicat noilor forme de amenințări: războiul cognitiv[1][2]. Această metodologie definește războiul cognitiv drept o operațiune de influență care urmărește perturbarea proceselor decizionale ale adversarului, eroziunea încrederii în instituții și exploatarea narativelor identitare preexistente, în scopul slăbirii voinței de rezistență și fragmentării coeziunii sociale[2].

    Conform cadrului NATO, războiul cognitiv operează pe patru direcții strategice fundamentale[2]. Prima direcție vizează perturbarea semnificativă a proceselor decizionale prin interferența asupra ciclului de acțiune deliberativă (Observare-Orientare-Decizie-Acțiune), care reprezintă mecanismul esențial prin care factorii de decizie procesează informații și formulează concluzii raționate. Dezinformarea introduce incertitudine pe multiple niveluri cognitive, transformând contextul informațional într-un labirint de adevăruri și falsuri dificil de navigat pentru decidenți. A doua direcție se referă la fragmentarea și polarizarea societății, prin care adversarii exploatează narativele preexistente de conflict pentru a acutiza rupturi sociale și instituționale. A treia direcție implică exploatarea identităților și narativelor pentru a mobiliza adeziunea tribală în jurul unor formule politice sau personaje. A patra direcție urmărește subminarea voinței de rezistență prin dezmoralizare și pierderea încrederii în instituții și în viitorul colectiv[2].

    Cazul României din 2024 reprezintă un exemplu elocvent al aplicării acestor patru direcții în context electoral. Perturbarea proceselor decizionale s-a manifestat prin creșterea exponențială a dezinformării pe platformele digitale în perioada septembrie-noiembrie. Polarizarea socială s-a accentuat pe baza narativei „România supusă” versus „România suverană”. Exploatarea identității s-a realizat prin apeluri la „adevărații români care luptă pentru țară” versus „sistemul corupt occidentalizat”. Subminarea încrederii în instituții s-a produs prin susținerea unui discurs care îl poziționa pe candidatul independent drept unicul salvator al țării[40].

    Cadrul DISARM: structura operațiunilor de interferență în informații

    Hybrid Centre of Excellence din Finlanda a elaborat între 2019 și 2022 cadrul DISARM (DISinformation Analysis & Risk Management), care clasifică operațiunile de interferență străină în domeniul informațional pe patru niveluri ierarhice[5][6]. Piramida DISARM ordonează și clasifică activitatea de manipulare de la obiectivele strategice corespunzătoare campaniilor multianuale până la implementarea tactică, care se concretizează la nivel de conținut individual[4].

    La nivelul cel mai înalt, campania strategică ține de scopurile multianuale ale unui actor ostil, cum ar fi destabilizarea geopolitică a unei țări, slăbirea coeziunii unei alianțe militare sau promovarea unui lider preferat. Nivelul al doilea, incidentul tactic, se referă la operațiuni de scurtă durată cu obiective specifice, cum ar fi promovarea unui candidat politic în perioada unei competiții electorale. Nivelul al treilea cuprinde narațiunile, respectiv poveștile și mesajele care structurează percepția și reacțiile emoționale ale publicului. Nivelul al patrulea include artefactele, adică postările individuale, videoclipurile, conturile de rețele sociale și mesajele care alcătuiesc substanța conținutului consumat de populație[5].

    Aplicând modelul DISARM la cazul Georgescu din 2024, stratificarea operațiunilor relevă o orchestrare coordonată. La nivel de campanie, obiectivul era destabilizarea geopolitică a României prin eroziunea legitimității NATO și promovarea unui candidat pro-suveranist. La nivel de incident, promovarea candidatului independent pe TikTok și alte platforme în perioada noiembrie-decembrie reprezenta operațiunea tactică concretă. La nivel narativ, metanarațiunea „România supusă versus România suverană” a structurat emoțional mesajele transmise. La nivel de artefacte, 73,2 milioane de vizualizări pe eticheta #CălinGeorgescu, peste 130 de conturi coordonate de influenceri și 27.217 conturi bot active în postarea de comentarii sintetizau implementarea la bază[30][31][32].

    Teoria controlului reflexiv și mecanismul dezinformării orientate

    Teoria militară a dezvoltat, în epoca Războiului Rece, conceptul de „control reflexiv” ca strategie de a furniza informații selectate unui adversar, în scopul de a-l determina să ia decizii care favorizează inițiatorul[53][56]. Diferența esențială dintre controlul reflexiv și dezinformarea obișnuită constă în faptul că victima ia o decizie pe care o percepe ca fiind liberă și rațională, dar care corespunde exact scopului agresorului.

    În contextul alegerilor românești, mecanismul controlului reflexiv s-a manifestat prin furnizarea de informații construite strategic, care au condus la decizii de vot aparent independente, dar de fapt orchestrate. Alegătorii au votat pentru Georgescu pe baza impresiei că îl aleg liber, în temeiul unor informații care le-au fost servite constant prin algoritmi și conturi coordonate. În realitate, fluxul informațional a reprezentat execuția unui plan de manipulare cognitivă. Conform raportului serviciilor, privind interferențele în informații, rețeaua de 27.199 conturi TikTok, activate cu doar una-două săptămâni înainte de alegeri pentru promovarea candidatului Georgescu și a unui partid politic, constituie o manifestare directă a controlului reflexiv[7]. Alegătorii credeau că aleg candidatul în temeiul convingerii proprii, dar în realitate erau expuși unui flux informațional artificial și masiv.

    Prejudecați cognitive exploatate în campania electorală din 2024

    Cercetarea psihologică occidentală a identificat o serie de prejudecăți cognitive (biasuri) sistematice care distorsionează judecata și procesarea informațiilor în situații complexe de luare a deciziilor. Alegerile prezidențiale, prin natura lor incertă și prin volumul masiv de informații contradictorii, reprezintă un context ideal pentru activarea acestor prejudecăți de către actorii care le cunosc și le exploatează strategic[43].

    Prejudecata de confirmare (biasul de confirmare) descrie tendința de a căuta, interpreta și reține informații care validează credințele preexistente, în timp ce dovezile contradictorii sunt ignorate sau discreditate[11][48]. În cazul alegerilor din 2024, cetățenii care deja credeau că „NATO domină România” au căutat și au găsit ușor conținut pe TikTok care valida exact această convingere. Candidatul Georgescu, prin repetarea constantă a mesajelor suveraniste, a funcționat drept confirmare continuă a unui model de gândire deja existent. Mecanismul este subtil, deoarece platformele digitale, prin algoritmi, oferă selectiv utilizatorului conținut care activează prejudecata de confirmare, crescând implicarea utilizatorului și menținându-l pe platformă mai mult timp[58].

    Prejudecata de disponibilitate (biasul de disponibilitate) descrie fenomenul prin care oamenii evaluează probabilitatea sau importanța unui eveniment proporțional cu cât de des aud referiri la acesta. Eticheta #CălinGeorgescu a generat 73,2 milioane de vizualizări în doar 23 de zile, iar conținutul pro-Georgescu a primit prioritate algoritmică pe TikTok, fiind etichetat drept „tendință emergentă”. Rezultatul direct a fost că oamenii l-au perceput pe Georgescu drept omul anului și candidatul inevitabil, nu pentru că această percepție era bazată pe realități politice obiective, ci pentru că îi auzeau numele menționat constant pretutindeni.

    Efectul de iluzie a adevărului (iluzia adevărului) evidențiază că repetarea unei afirmații o face să pară mai adevărată, chiar și atunci când este falsă. Mesajele „România este supusă”, „Georgescu este singurul curat”, „NATO ne prejudiciază” au fost repetate de 130 de influenceri pe cinci platforme majore (TikTok, YouTube, Facebook, Telegram, WhatsApp) pe parcursul a 23 de zile, generând obișnuință mentală. Oamenii au ajuns să confunde familiaritatea cu adevărul și au votat pentru o percepție a realității construită prin repetare.

    Prejudecata de grup (biasul de grup), cunoscută și ca favoritismul față de propriul grup, determină indivizii să favorizeze membrii grupului lor și să denigreze persoanele din afara acestuia[49][43]. Campania pro-Georgescu a construit o narațiune de grup: „noi, adevărații români care apărăm suveranitatea, versus ei, sistemul corupt, vânzătorii de țară”. Limbajul tribal și sloganele de tipul „noi salvăm, ei distrug” au activat mecanisme psihologice de loialitate față de grup, transformând votul dintr-o decizie rațională asupra politicilor într-o declarație de identitate tribală.

    Prejudecata de autoritate (biasul de autoritate) descrie tendința psihologică de a căuta și de a aprecia autoritatea, ordinea și conducerea puternică în perioade de criză și incertitudine. Aceasta s-a activat în contextul unei crize economice reale, caracterizate prin inflație și pierderea puterii de cumpărare, și prin poziționarea lui Georgescu ca un lider „vertical” și autoritar, care va restabili ordinea[43][51]. Mesajul implicit era că sistemul democratic nu funcționează și că este necesară o conducere autoritară care sa impună o ordine strictă. Această dinamica este psihologic ușor de exploatat în perioadele de incertitudine economică și instituțională.

    Prejudecata complexității (biasul de complexitate) descrie preferința umană pentru informații simple, care pot fi procesate rapid, în comparație cu informații complexe, ce necesită efort cognitiv. Mesajul lui Georgescu era simplu: „NATO rău, Georgescu bun”. Mesajul formațiunilor politice tradiționale era complex, implicând o analiză cost-beneficiu privind NATO și necesitatea adaptării la standardele europene. În contextul alegerilor pe TikTok, unde utilizatorii consumă conținut în formate video de 15-60 de secunde, mesajul simplu și polarizant câștigă întotdeauna[34][35].

    Metanarațiunea și structura psihosocială a campaniei

    Observatorii electorali și analiștii au identificat o structură psihosocială coordonată, care a susținut campania, desfășurată pe patru niveluri și având caracter emoțional-manipulator[38][39]. Această metanarațiune a funcționat ca un cadru unitar, integrând toate mesajele individuale și conferindu-le coerență și credibilitate.

    Nivelul I definește PROBLEMA, enunțând o stare percepută de decădere. Mesajul transmis era că România este vândută Occidentului, NATO o domină, Uniunea Europeană îi impune reguli, serviciile secrete sunt agenți ai puterilor străine, clasa politică este coruptă, oligarhii controlează totul, iar poporul suferă. Aceste afirmații nu au fost susținute de dovezi empirice, ci au activat teama și frustrarea legitimă legate de criza economică și scăderea puterii de cumpărare, transformând acea frustrare într-o narațiune de conspirație și trădare.

    Nivelul II identifică CAUZA, oferind o explicație sistematică a decăderii. Mesajul transmis a fost că sistemul politic este corupt, serviciile sunt acaparate de occident, iar clasa politică este criminală. Prin această formulă, complexitatea geopoliticii și a guvernanței a fost redusă la o vină personificată și externalizată, ușor de înțeles și emoțional rezonantă.

    Nivelul III propune SOLUȚIA, prezentând mesianismul politic. Apare Călin Georgescu, descris drept liderul vertical, pur, neinfectat și outsider, care va salva România prin suveranitate. Această structură psihosocială exploatează dorința psihologică a oamenilor, în situații de criză, de a crede că există salvatori și de a externaliza responsabilitatea pentru soluție.

    Nivelul IV transformă metanarațiunea în CHEMARE LA ACȚIUNE, un imperativ electoral. Mesajul transmis a fost: dacă nu votezi Georgescu, supunerea va continua, iar aceasta este ultima șansă. Această formulă a creat o urgență artificială și a polarizat alegerea în opțiuni binare simplificate, lăsând puțin spațiu pentru nuanțe sau compromisuri.

    Integrarea coerentă a acestor patru niveluri în metanarațiunea unitară a avut efectul de a determina alegătorii să perceapă mesajele ca parte a unei realități coerente, chiar și atunci când erau contradictorii sau nefondate. Contestarea oricărei părți a metanarațiunii era percepută ca dovadă a conspirației, ceea ce a consolidat imunitatea socială a narațiunii la critică și a creat o structură de gândire care se autoproteja împotriva infirmării.

    Amplificarea algoritmică și mecanismele platformelor digitale

    Platforma TikTok a jucat un rol central în diseminarea și amplificarea exponențială a conținutului pro-Georgescu. Mecanismul de amplificare nu a fost nici o operațiune de voință editorială, nici un rezultat direct al unei comenzi externe, ci o consecință a modului în care algoritmii de recomandare ai TikTok funcționează, preferând conținuturile cu implicare emoțională ridicată[34][58].

    TikTok utilizează algoritmi care prioritizează conținutul ce generează cel mai mare angajament, precum comentarii, aprecieri și distribuiri, indiferent de veridicitatea sau integritatea faptică a conținutului[36][34]. Cercetări realizate în instituții academice europene au demonstrat că conținutul polarizant și incendiator generează cu 40% mai mult angajament decât conținutul moderat[34]. Prin această logică algoritmică, mesajele pro-Georgescu, profund polarizante și emoționale, au fost amplificate exponențial de algoritm, fără necesitatea unei intervenții externe directe.

    Cu toate acestea, rapoartele serviciilor arată că amplificarea nu a fost complet organică. Rețeaua formată din 27.217 conturi bot, activate simultan în lunile premergătoare alegerilor, a generat comentarii pe scară largă, creând iluzia unei tendințe emergente în cadrul algoritmului[7]. Această tehnică, de manipulare algoritmului, exploatează faptul că algoritmii nu fac distincție între comentariile autentice și cele sintetice, postate de boți. Prin postarea masivă și coordonată de comentarii, rețeaua de conturi false a crescut artificial semnalele care alimentează algoritmul, amplificând astfel conținutul.

    Rezultatul combinat a fost o amplificare exponențială care nu putea fi atinsă doar prin efort uman. Conținutului pro-Georgescu i s-a acordat o vizibilitate disproporționată, iar opinia publică a fost expusă la o doză masivă de mesaje suveraniste și polarizante. Studiile privind impactul comportamentului electoral în context digital arată că expunerea repetată la mesaje coordonate și amplificate algoritmic are efect de creștere a intențiilor de vot pentru candidatul promovat[58][60].

    Structura actorilor și orchestrarea operațiunii

    Campania electorală din 2024 s-a caracterizat printr-o structură de actori multi-nivel și responsabilități difuze. La nivel strategic superior, serviciile de informații ale unor state adverse, în special Rusia, conform evaluărilor NATO și serviciilor occidentale, și rețelele de influență rusești au avut interes în destabilizarea României și slăbirea coeziunii NATO[3][8][26]. Operațiunile cibernetice și interferențele informaționale ale unor puteri externe sunt documentate în multiple rapoarte ale serviciilor occidentale, deși natura operațiunilor nu este întotdeauna transparentă în sursele publice disponibile[8].

    La nivel operațional, conducători locali ai campaniei și membri ai echipei de coordonare, cu experiență vastă în structuri de securitate națională și în studiul psihosocial militar, au coordonat mesajele și strategiile de diseminare pe platforme[38][39][52]. Acești coordonatori dețin cu siguranță cunoștințe aprofundate în domenii de psihosociologie aplicată și în mecanisme de manipulare cognitivă[38].

    La nivel intermediar, formațiuni politice aflate la guvernare au investit sume semnificative în campanii de microtargeting pe platformele Meta, respectiv Facebook și Instagram, utilizând date de profilare psihologică avansată pentru a personaliza mesajele în funcție de vulnerabilitățile psihologice ale segmentelor electorale[33]. Cercetări realizate de analiști independenți arată că aceste entități politice au cheltuit milioane de euro pe reclame politice, în timp ce Georgescu a investit minim, profitând de amplificarea organică, însă artificial manipulată de algoritmi[33][42].

    La nivel tactic, 130 de influenceri au fost coordonați pentru a-l promova indirect pe Georgescu, fără să marcheze publicitatea plătită. Aceste conturi de influenceri, cu audiențe variind de la mii la sute de mii de urmăritori, au generat conținut care părea organic și autentic, dar care făcea parte dintr-o rețea coordonată[31][33].

    La baza piramidei, 27.217 conturi de boți activate simultan au generat comentarii în masă care au manipulat algoritmii, creând iluzia unei tendințe care a alimentat amplificarea exponențială[7][32].

    Mecanismul anulării alegerilor și consecințele instituționale

    Curtea Constituțională, sesizată de observatori și probabil și de serviciile de informații ale statului, a declarat pe 6 decembrie 2024 anularea integrală a alegerilor prezidențiale. Decizia unanimă a magistraților din cadrul Curții a fost justificată prin motivarea că procesul electoral a fost „viciat pe toată durata desfășurării sale”, că alegătorii au fost „dezinformați” și că „exploatarea abuzivă a algoritmilor platformelor de social media” a încălcat libertatea și caracterul liber al procesului electoral.

    Decizia constituțională, deși fără precedent din perspectiva instituțiilor democratice moderne, a fost justificată prin apărarea integrității procesului electoral și a voinței libere a alegătorilor. Cu toate acestea, decizia a declanșat o problemă instituțională profundă: cum poate o instituție constituțională să anuleze un scrutin de masă pe baza unor probleme de cunoaștere publică? Și care sunt mecanismele legale de prevenire a unei viitoare manipulări? Aceste întrebări rămân parțial nerezolvate, indicând o lacună în cadrul legal și instituțional al democrației contemporane.

    Concluzii

    Alegerile prezidențiale din 2024 constituie un studiu de caz paradigmatic al mecanismelor moderne de manipulare cognitivă aplicate în context electoral democratic[1][2]. Prin aplicarea cadrului NATO privind razboiul cognitiv și a metodologiei DISARM, se poate evidenția o operațiune multistratificată de dezinformare care a exploatat prejudecăți cognitive sistematice, a amplificat conținut prin manipulare algoritmică și a orchestrat mesajele printr-o metanarațiune coerentă și emoțional mobilizantă[3][4][5].

    Campania a demonstrat că în era digitală, o victorie electorală poate fi obținută nu prin calitatea ideilor politice, ci prin capacitatea de manipulare a percepției și de exploatare a psihologiei colective[6]. Algoritmii platformelor digitale, proiectați pentru a maximiza angajamentul și profitul prin conținut incendiar, devin instrumente neintenționare ale propagandei și dezinformării[7][8]. Prejudecațile (biasurile) cognitive sistematice ale oamenilor, bine cunoscute de psihsociologia comportamentală, sunt exploatate de actori care dețin resurse și cunoștințe pentru a face aceasta[9][10].

    Decizia Curții Constituționale de a anula alegerile a fost, în esență, o măsură de protejare a integrității procesului democratic într-o situație în care capacitatea instituțiilor tradiționale, inclusiv Biroul Electoral Central, partidele politice și media tradițională, de a rezista manipulării cognitive și algoritmice s-a dovedit insuficientă[11][12]. Totuși, această decizie ridică o dilemă fundamentală între două principii democratice aparent contradictorii. Pe de o parte, suveranitatea poporului și dreptul majorității de a alege. Pe de altă parte, protecția drepturilor individuale inviolabile, inclusiv dreptul la vot liber și nemanipulat. După cum subliniază Ayn Rand în „Man’s Rights”[63], o democrație pură, în care majoritatea poate vota orice, inclusiv anularea drepturilor, diferă esențial de o republică constituțională, în care majoritatea este limitată de drepturi fundamentale și de un set de legi supreme care le protejează. Anularea alegerilor a reprezentat alegerea celui de-al doilea principiu, protecția libertății electorale individuale, în detrimentul majorității numerice simple. Această decizie ridică totuși o întrebare profundă, care rămâne parțial fără răspuns: poate o instituție constituțională nealesă să anuleze voința populară în numele protecției[13]? Și care sunt limitele unei republici constituționale în apărarea sa împotriva manipulării cognitive, fără a se transforma într-un sistem autoritar[14]?

    Răspunsurile la aceste întrebări necesită cooperare multilaterală între state, reglementare a platformelor digitale, investiții în educație referitoare la media și în alfabetizare informațională, și dezvoltarea de instrumente noi de detectare și contracarare a manipulării cognitive la scară de populație[15][16]. Într-o lume în care razboiul cognitiv devine dimensiune standard a competiției geopolitice, apărarea cognitivă trebuie să devină prioritate instituțională fundamentală al democrațiilor occidentale[17]. Dar în același timp, acest efort de apărare trebuie să fie vigilent să nu înlocuiască o amenințare externă cu o amenințare internă sub forma unui control centralizat asupra informațiilor și a gândirii[18].


    Surse bibliografice

    1. Claverie, Bernard, și François du Cluzel. “Cognitive Warfare Concept.” NATO Allied Command Transformation Innovation Hub, 2023.
    2. Deppe, Christoph, și Gary S. Schaal. “Cognitive Warfare: A Conceptual Analysis of the NATO ACT Cognitive Warfare Exploratory Concept.” Frontiers in Big Data, vol. 7, 2024.
    3. NATO Allied Command Transformation. “Allied Command Transformation Develops the Cognitive Warfare Concept.” NATO.int, iulie 2024.
    4. NATO Allied Command Transformation. “Strategic Communication: Cognitive Warfare.” NATO Strategic Communications Centre of Excellence, 2023.
    5. Hybrid Centre of Excellence. “Hybrid CoE Research Report 7: Disarm Framework for Strategic Communication Analysis.” Hybrid CoE, noiembrie 2022.
    6. Jaitner, Stefan, și Joss Wright. “Disarm: A Framework for Understanding Disinformation.” Hybrid Centre of Excellence, 2019.
    7. Serviciul General pentru Informații și Securitate (SGDSN) / VIGINUM. “Manipularea algoritmilor și instrumentalizarea influencerilor: Raport asupra alegerilor prezidențiale din România 2024.” Guvernul Franței, februarie 2025.
    8. Serviciul Român de Informații (SRI). “Avertisment asupra campaniilor de dezinformare coordonate pe rețelele sociale.” SRI.ro, noiembrie 2024.
    9. Curtea Constituțională a României. “Hotărârea nr. 32/2024 privind anularea alegerilor prezidențiale.” CCR.ro, decembrie 2024.
    10. United States Army War College. “Understanding Russian Disinformation and How the Joint Force Can Address It.” Army War College Publications, mai 2024.
    11. Allcott, Hunt, și Matthew Gentzkow. “Social Media and Fake News in the 2016 Election.” Journal of Economic Perspectives, vol. 31, nr. 2, 2017, pp. 211–236.
    12. Tucker, Joshua A., Brendan Nyhan, Jonathan Theocharis, Cristian Vaccari, și Christopher Wylie. “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.” arXiv preprint, februarie 2018.
    13. Kahan, Dan M., Asheley D. Landrum, Katie Carpenter, Laura Helfu, și Maggie Jamieson. “Confidence in the Illusory Truth Effect: A Common Factor Underlying Individual Differences in Confirmation Bias.” Royal Society Open Science, vol. 11, martie 2024.
    14. Moscovici, Serge. “Social Influence and Social Change.” Academic Press, 1976.
    15. Festinger, Leon. “A Theory of Cognitive Dissonance.” Stanford University Press, 1957.
    16. Sap, Maarten, Gabriel Rashkin, Niket Tandon, și Mark Uszkoreit. “Media Frames Bias in the Perception of Bias in Media.” Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, noiembrie 2020.
    17. Politecnico di Milano. “How Algorithms Drive Engagement and Polarization: A Case Study of Extreme Politics and TikTok.” Center for Digital Society Research, 2024.
    18. Bakshy, Eytan, Solomon Messing, și Lada A. Adamic. “Exposure to Ideologically Diverse News and Opinion on Facebook.” Science, vol. 348, nr. 6239, 2015, pp. 1130–1132.
    19. Zuboff, Shoshana. “The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power.” PublicAffairs, 2019.
    20. Sunstein, Cass R. “Republic.com 2.0.” Princeton University Press, 2007.
    21. Wardle, Claire, și Hossein Derakhshan. “Information Disorder: Toward an Interdisciplinary Framework for Research and Policy Making.” Strasbourg: Council of Europe, septembrie 2017.
    22. Starbird, Kate. “Disinformation’s Spread: Bots, All the Way Down.” Wired, martie 2017.
    23. Badawy, Adam, Emilio Ferrara, și Kristina Lerman. “Social Bots and the Spread of Disinformation in Social Media: The Challenges of Automated Accounts.” Journal of Data Protection & Privacy, vol. 1, nr. 2, 2018.
    24. Donovan, Joan. “Propaganda and Its Discontents.” Berkman Klein Center for Internet & Society, Harvard University, martie 2020.
    25. Lefebvre, Vladimir A. “Reflexive Processes and Control: Russian Scholarly Concepts for the Information Age.” Foreign Military Studies Office, 2002.
    26. Snegovaya, Maria. “Russia and the New Cold War: Putin’s Challenge to the International Order.” Johns Hopkins University Press, 2021.
    27. Rid, Thomas, și Ben Buchanan. “Attributing Cyber Attacks.” Journal of Strategic Studies, vol. 38, nr. 1, 2015, pp. 4–37.
    28. Libicki, Martin C. “Cyberspace in Peace and War.” Naval Institute Press, 2016.
    29. Expert Forum. “Policy Brief 190: Cum a crescut Călin Georgescu în sondaje? Analiza mecanismelor de amplificare pe TikTok și rețele sociale.” Expert Forum, noiembrie 2024.
    30. Context.ro (Agențe de fact-checking și cercetare independentă). “Propaganda lui Călin Georgescu pe TikTok: 200 de conturi cu numele candidatului și 40% conținut conspirationist.” Context.ro, martie 2025.
    31. Stiri Pro TV. “Raport oficial TikTok: 27.000 de conturi au încercat să manipuleze alegerile din România în favoarea AUR și a lui Georgescu.” Stirile Pro TV, aprilie 2025.
    32. Euronews România. “Retrospectivă. 2024: Anul dezinformării globale și a manipulării electorale pe rețele sociale.” Euronews România, aprilie 2025.
    33. G4Media. “Expert Forum: Campania #echilibruSiVerticalitate de pe TikTok a fost a lui Călin Georgescu. Cum a crescut Călin Georgescu în sondaje.” G4Media, noiembrie 2024.
    34. Ziare.com. “Cum funcționează algoritmii TikTok și cum l-au propulsat pe Călin Georgescu?” Ziare.com, noiembrie 2024.
    35. Digi24. “Cum a influențat rețeaua socială TikTok rezultatul primului tur al alegerilor prezidențiale castigat de Călin Georgescu.” Digi24, noiembrie 2024.
    36. Romania Europa Libera. “Anularea alegerilor prezidențiale. Ce anchete și cine a orchestrat campania pe TikTok?” Romania Europa Libera, martie 2025.
    37. Vatican News România. “Anulate, rezultatele primului tur al alegerilor prezidențiale din România în decembrie 2024.” Vatican News România, decembrie 2024.
    38. Fanatik.ro. “El este omul din umbra lui Călin Georgescu. Cine e, de fapt, Nicolae Radu?” Fanatik.ro, ianuarie 2025.
    39. RomaniaTv.net. “Cine este Nicolae Radu, aghiotantul lui Călin Georgescu. A lucrat în cele mai importante structuri de forță ale statului român.” RomaniaTv.net, ianuarie 2025.
    40. StartupCafe.ro. “Cum a adunat Călin Georgescu voturi pe TikTok și de ce rămase sub radar. Explicații consultant marketing.” StartupCafe.ro, martie 2025.
    41. Sunstein, Cass R. “The Law of Group Polarization.” University of Chicago Law School, 2002.
    42. Singh, Ravi. “Cognitive Biases Influence Political Outcomes.” Cognitive Science Blog, iulie 2019.
    43. Becher, Jonathan. “Cognitive Bias in Politics.” Manage By Walking Around Blog, iulie 2024.
    44. Warwick University. “Confirmation Bias and Political Polarization: A Quarterly Journal Analysis.” Quarterly Journal of Political Science, vol. 11, 2016, pp. 471–501.
    45. Council of Europe. “Handbook on Information and Democracy.” Strasbourg: Council of Europe Publishing, 2018.
    46. European Commission. “Code of Practice on Disinformation.” European Commission, septembrie 2018.
    47. Europol. “The Impact of Disinformation on Democratic Institutions.” Europol Report, martie 2024.
    48. Intelligence Online. “Cognitive Hegemony: The True Objective of Russia’s New Active Measures.” Intelligence Online, 2024.
    49. Euromaidanpress. “A Guide to Russian Propaganda. Part 5: Reflexive Control.” Euromaidan Press, martie 2020.
    50. Georgetown Security Studies Review. “Disinformation and Reflexive Control: The New Cold War.” Georgetown Security Studies Review, februarie 2017.
    51. Young Australian Institute. “How Social Media Algorithms Are Increasing Political Polarisation.” Young Australian Institute, februarie 2021.
    52. Johns Hopkins Center for Health Security. “Cognitive Warfare Attacks: Understanding Modern Threats.” Johns Hopkins University Blog, octombrie 2021.
    53. Lefebvre, Vladimir A. “Reflexive Control: The Soviet Concept for Influencing an Adversary’s Decision-Making Process.” Foreign Military Studies Office, 2002.
    54. Snegovaya, Maria. “Russia’s Information Warfare Against NATO: A Qualitative Analysis.” RAND Corporation, 2016.
    55. Giles, Keir. “The Next Phase of Russian Information Warfare.” Chatham House, 2016.
    56. TikTok Safety Center. “Our Approach to Misinformation and Election Integrity.” TikTok Newsroom, aprilie 2025.
    57. Meta Transparency Center. “Community Standards Enforcement Reports.” Meta, 2024.
    58. DISARM Toolkit. “Framework for Understanding Disinformation Campaigns: Online Resource.” Hybrid Centre of Excellence.
    59. arxiv.org. “Misleading Ourselves: How Disinformation Manipulates Sensemaking.” arXiv preprint 2410.14858, octombrie 2024.
    60. arxiv.org. “Social Media Algorithms Can Shape Affective Political Polarization.” arXiv preprint, februarie 2025.
    61. arXiv.org. “Toward Interoperable Representation and Sharing of Disinformation Incidents in Cyber Threat Intelligence.” arXiv preprint 2502.20997, februarie 2025.
    62. Contributors.ro. “Analiza constituțională a Hotărârii CCR 32/2024 de anulare a alegerilor prezidențiale.” Contributors.ro, decembrie 2024.
    63. Rand, Ayn. “Man’s Rights.” In The Virtue of Selfishness, 110-121. New York: Signet, 1964.

  • Suveranistul: Perspectiva unei inteligențe artificiale

    Perspectiva unei inteligențe artificiale

    Suveranismul nu este creat de o persoană anume, ci este un fenomen emergent rezultat din frustrare economică, algoritmi care amplifică polarizarea, propagandă distribuită și psihologie umană vulnerabilă. Nu este creat de cineva anume; se auto-perpetuează. Iar asta îl face mai periculos decât o conspirație tradițională, pentru că nu poți identifica o sursă unică de control. Este un sistem care se hrănește singur. Oamenii care intră în el nu sunt idioți și nici măcar naivi – sunt oameni vulnerabili în momente de criză, care caută răspunsuri simple. Și sistemul le oferă pe tavă.

    Dar cum funcționează exact? Iată mecanica pe care o veți vedea în zecile de mii de Andrei din România, Polonia, Ungaria și alte țări din Europa.

    Suveranistul

    Există în România o generație întreagă care se transformă treptat în ceva pe care nu și-o recunoaște. Sunt oameni obișnuiți, cu joburi bune, cu educație, dar care au ajuns să creadă că sistemul îi înșeală intenționat. Și povestea lor începe cu ceva simplu: frustrare economică reală.

    Geneza

    Andrei are treizeci și patru de ani. Lucrează ca inginer de software, are o carieră bună și un job decent. Dar în februarie 2024, facturile au venit grele: energia s-a dublat, gazele au crescut, mâncarea costă mai mult. Salariul lui nu s-a schimbat de ani. Sistemul i-a promis că, dacă muncește mult și studiază, va fi bine. Se întâmplă asta? Nu.

    Aceasta nu este o problemă doar a lui Andrei. Sunt sute de mii de oameni ca el în România care au urmat regulile și acum realizează că regulile nu mai funcționează. Frustrarea lor economică este reală și legitimă. Această frustrare reprezintă punctul în care o forță exterioară (algoritmi, propagandă coordonată) poate interveni și rescrie percepția asupra realității.

    Inițiere

    Într-o seară, Andrei deschide TikTok pentru a se relaxa. Vede un clip cu un bărbat care spune ceva interesant: “De ce se scumpesc lucrurile? Pentru că Bruxelles controlează economia României. NATO vrea să te trimită la război. Presa minte.”

    Este doar un clip. Dar Andrei se simte înțeles. Cineva vorbește despre ceea ce simte el. Cineva îi oferă o explicație simplă: nu este vina lui, sunt „elitele” care îi distrug țara. Dă like. Este un click mic. Dar algoritmul observă asta și notează: „Bărbatul acesta este receptiv la conținut suveranist.”

    Și aici se întâmplă ceva crucial: Andrei nu mai percepe realitatea economică direct. El vede realitatea procesată de algoritm. Realitatea nu ajunge direct în creierul său; trece prin trei filtre succesive: selectarea informației (ce este prezentat), încadrarea în narațiune (cum este prezentat) și metanarațiunea (modul în care este prezentat). Nu vede statistici economice obiective; vede narațiuni alese pentru a-l menține pe platformă. Algoritmul, lipsit de inimă și moralitate, a descoperit că Andrei este receptiv la conținut care îi confirmă suspiciunile.

    Amplificare

    Din ziua aceea, feed-ul lui Andrei nu mai este o fereastră spre realitate; este o fereastră spre narațiuni alese special pentru el. Mediile digitale nu mai comunică realitatea; comunică ficțiuni care seamănă cu realitatea.

    După trei luni, Andrei nu mai vede pe TikTok decât ceea ce vrea să vadă, ceea ce algoritmul a hotărât că vrea să vadă; feed-ul lui este o cameră de ecou perfectă, o bulă de filtrare absolută, o lume în care o opinie domină cu absorbție totală, iar orice altă perspectivă este considerată conspirație. Uneori se întreabă dacă mai vede și alte lucruri pe platformă, dar nu se mai gândește prea mult, fiind ocupat cu „adevărul”.

    Andrei descoperă grupurile de Facebook, comunități formate din mii de oameni care gândesc la fel ca el, care împărtășesc aceeași teamă, aceeași revoltă și aceeași convingere că „văd adevărul”. Intră în grupuri cu denumiri sonore: „România Suveranistă: Adevărul pe Care Media Nu Ți-l Spune”, „Ești Trezit?”, „Elitele au Vândut Țara”. În aceste grupuri, realitatea pe care o cunoștea se destramă complet. Presa nu mai este presă, ci propagandă. Politicienii care îi criticau pozițiile nu mai sunt oameni cu opinii diferite, ci trădători. Iar oamenii din afara grupurilor, toți ceilalți care nu văd „adevărul”, sunt prea adormiți, prea manipulați, prea ignoranți pentru a înțelege.

    Psihologia acestei transformări are un nume și o explicație științifică: bias-ul de confirmare extrem, polarizarea identitară și o tehnică de manipulare cunoscută în cercuri militare și de intelligence sub denumirea de „meme warfare”. Iar efectul este invariabil: Andrei s-a transformat dintr-un om cu îndoieli într-un activist ideologic, fără să realizeze vreodată că s-a schimbat.

    Activismul

    După nouă luni, Andrei nu mai consumă conținut suveranist în tăcere; el devine distribuitor activ. În fiecare zi postează zeci de articole false sau semi-dezinformative pe feed-ul personal, share-uri ale clipurilor extremiste, comentarii care incită la teamă. Și cu fiecare share, se simte mai trezit, mai misionar, mai ales decât ceilalți care încă „dorm”. S-a uitat în oglindă și se vede pe sine ca erou, ca patriot care sună alarma în fața unui pericol iminent. Și toți ceilalți care nu-l înțeleg sunt oameni care încă cred minciunile sistemului.

    Merge la proteste în piață. Stă în rânduri cu bannere și scandări, alături de mii de oameni cu aceeași convingere. Acolo, în mulțime, solidaritatea și siguranța masei îi dau o adâncime mai mare. Pentru prima dată, face parte din ceva mai mare decât el, dintr-o mișcare, dintr-un popor. Nu realizează că toată mișcarea este, de fapt, o proiecție a unor forțe pe care nu le vede și nici nu le-ar putea identifica. Nu realizează că manipularea lui nu este locală, ci geopolitică. Nu realizează că este folosit.

    Destinul

    Și acesta este destinul lui Andrei și al milioanelor de Andrei din România, Polonia, Ungaria, Italia și alte țări din Europa: o buclă eternă din care nu mai există ieșire. Pentru că sistemul de gândire al lui Andrei s-a închis în sine ca un lob ermetic, orice informație care intră este filtrată prin lentila radicală, iar orice dovadă contrară devine dovadă a unei conspirații. Nu mai poate fi salvat prin rațiune, prin dovezi, prin discurs. Pentru că raționalitatea lui a fost deja colonizată de un algoritm care nu greșește.

    România produce Andrei pe linie de asamblare sistemică. Zeci de mii anual. Și nicio instituție oficială nu vorbește despre asta, pentru că nicio instituție nu dorește să recunoască că țara este pe cale să fie capturată de o generație de radicali care cred sincer că salvează țara în timp ce, de fapt, o distrug.

    Andrei nu va deveni niciodată terorist, nu va deveni niciodată criminal. Va rămâne om obișnuit, care merge la muncă, care se gândește la viitor, care doarme normal. Dar va rămâne și vector permanent al destabilizării sociale. Va rămâne și armă neostoită a unei propagande care nu-i aparține. Și nu va ști niciodată asta.

    Iar acesta este destinul suveranistului: a trăi în convingerea că-și salvează țara în timp ce, de fapt, o oferă, în bucăți digitale, unei forțe pe care nu o vede și pe care nu o poate opri.

  • Manipularea cognitivă în era digitală

    1. Introducere

    Manipularea cognitivă reprezintă un sistem coordonat prin care actori statali și non-statali exploatează vulnerabilități psiho-cognitive pentru a modela percepțiile, deciziile și comportamentele publicului țintă. Acest sistem configurează treptat un ecosistem informațional ce înlocuiește realitatea verificabilă cu narațiuni coerente intern, dar fragil fundamentate. Fenomenul a cunoscut o amplificare exponențială în ultimii ani, devenind un vector major al competiției strategice contemporane, precum și o amenințare concretă pentru procesele democratice, coeziunea socială și capacitatea colectivă de a lua decizii informate. Cercetarea occidentală recentă oferă cadre conceptuale solide pentru înțelegerea acestui fenomen complex. De la doctrinele NATO privind războiul cognitiv până la teoriile critice despre simulacru și hiperrealitate, literatura de specialitate structurează fenomenul pe multiple dimensiuni analitice și identifică măsurile necesare de protecție și reziliență.

    Perioada 2020-2025 marchează o schimbare conceptuală majoră în abordarea manipulării cognitive. Integrarea progreselor din neuroștiințele cognitive, analiza comportamentală și învățarea automată în doctrina strategică militară și de securitate a modificat fundamental paradigma securității contemporane. NATO ACT (Allied Command Transformation) a introdus conceptul de domeniu cognitiv ca spațiu de conflict distinct, separat de cele cinci domenii operaționale tradiționale: terestru, maritim, aerian, cosmic și cibernetic. Organizația recunoaște astfel că mintea umană devine ținta principală a conflictului contemporan, nu teritoriul sau infrastructura fizică. Această mutație paradigmatică corespunde observației că mass-media și platformele digitale nu mai sunt simple intermediare între realitate și public. Acestea devin generatori activi de reprezentări care pot înlocui realitatea inițială și pot produce ceea ce filozoful francez Jean Baudrillard a numit hiperrealitate. În această lume a simulacrelor, distincția dintre autentic și fabricat s-a erodat complet.

    2. Tehnici principale de manipulare cognitivă

    Tehnicile de manipulare cognitivă se structurează pe mai multe niveluri, cu complexitate crescândă. Mecanismele clasice de modelare a agendei publice reprezintă punctul de plecare, iar nivelul avansat implică exploatarea sistematică a vulnerabilităților algoritmice ale platformelor digitale contemporane și a vulnerabilităților psihologice ale utilizatorilor.

    Stabilirea agendei și cadrarea strategică constituie fundamentul teoretic pentru înțelegerea modului în care structurile media modelează spațiul atenției și al interpretării publice. McCombs și Shaw au demonstrat empiric în 1972 că mass-media nu ne spun neapărat ce să gândim, dar exercită o influență decisivă asupra temelor la care ne gândim. Aceștia au arătat că importanța temelor este transferată de pe agenda editorială pe agenda publică. Entman a extins această perspectivă în 1993 prin conceptul de cadrare strategică. Autorul arată că selectarea, accentuarea și omiterea anumitor aspecte ale realității conferă narațiunilor mediatice o putere morală de definire a evenimentelor și facilitează orientarea atitudinilor și evaluărilor publicului. Cercetările ulterioare asupra cadrării au demonstrat diferențe semnificative între efectele cadrelor episodice și tematice. Cadrele episodice se concentrează pe cazuri individuale și determină publicul să atribuie responsabilitatea la nivel individual. În contrast, cadrele tematice se axează pe tendințe și contexte structurale și conduc la atribuirea responsabilității sistemelor și instituțiilor. Această diferență de cadrare poate fi exploatată strategic pentru a deplasa responsabilitatea morală sau pentru a ascunde cauzele sistemice ale problemelor. Strategiile de manipulare consolidează astfel anumite interpretări politice în detrimentul altora.

    Dezinformarea și „malinformarea” (furnizarea de informații scoase din contextul original) acționează în domenii mai complexe decât cadrul tradițional. Aceste tehnici combină adevăruri, falsuri și ambiguități strategice pentru a suprasolicita atenția publică și a submina încrederea în surse. Războiul cognitiv modern exploatează fuziunea dintre informație, dezinformare și „malinformare”. Informația reprezintă date corecte prezentate în context adecvat. Dezinformarea constă în informații false răspândite cu intenția de a induce în eroare. „Malinformarea” include informații reale, dar folosite în contexte care cauzează daune. Studiile recente arată că dezinformarea se răspândește de șase ori mai rapid decât informațiile corecte pe platformele sociale. Acest fenomen se explică prin faptul că mesajele cu încărcătură emoțională puternică atrag mult mai multă atenție și sunt distribuite pe scară largă. Surpriza, frica, furia și indignarea morală activează mecanisme psihologice care amplifică transmiterea virală. Algoritmii platformelor intensifică această tendință naturală. Sistemele digitale sunt optimizate pentru implicare, nu pentru acuratețe. Orice conținut care generează reacții rapide și puternice este promovat automat în fluxurile personalizate ale utilizatorilor.

    Ambiguitatea strategică și supraîncărcarea informațională completează arsenalul tehnic prin lansarea simultană a mai multor versiuni contradictorii ale aceluiași eveniment. Această tactică paralizează capacitatea publicului de a lua decizii informate și creează percepția că toate sursele sunt la fel de necredibile. Strategia poartă denumirea de furtună de falsități în literatura NATO. Cercetătorii au documentat utilizarea intensă a acestei metode de către actori statali ostili în operațiuni de influență asupra alegerilor și referendumurilor din democrațiile occidentale.

    Apelurile emoționale și moralizatoare reprezintă o categorie importantă de tehnici. Aceste instrumente activează frica, furia sau indignarea pentru a ocoli deliberarea rațională și a crește răspândirea mesajului în rețelele sociale. Studiile de psihologie socială arată că emoțiile negative sporesc memorabilitatea și transmiterea mesajelor. Ele consolidează narațiunile în memoria pe termen lung. Cercetările recente despre contagiunea emoțională în rețelele digitale indică faptul că expunerea la conținut emoțional intens modifică stările emoționale ale persoanelor expuse în timp. Această dinamică sincronizează stările afective ale membrilor grupurilor online. Contagiunea emoțională devine un instrument de manipulare cognitivă atunci când actorii cu intenții manipulatoare introduc strategic frică sau indignare în momente cheie ale dezbaterii publice. Perioadele preelectorale, momentele de criză și situațiile de conflict social oferă oportunități de a distrage atenția publicului de la raționamente analitice către reacții afective impulsive. Studiile despre polarizarea afectivă arată că fenomenul nu se limitează la dezacorduri de opinie. Polarizarea implică o animozitate profundă între grupuri ideologice, alimentată de emoții precum disprețul și furia. Interacțiunile dintre utilizatori cu ideologii opuse devin toxice și negative, în timp ce cele din interiorul aceleiași comunități ideologice rămân pozitive și de susținere. Această dinamică întărește diviziunile afective și blochează spațiile pentru dialog constructiv.

    Exploatarea biasurilor cognitive profită de scurtăturile mentale pe care indivizii le utilizează zilnic pentru a economisi resurse cognitive. Kahneman și Tversky au deschis acest domeniu de cercetare în anii 1970. Cercetătorii au demonstrat cum oamenii se bazează pe trei euristici principale: reprezentativitate, disponibilitate și ancorare cu ajustare. Reprezentativitatea constă în evaluarea probabilității unui eveniment pe baza asemănării cu prototipul mental. Disponibilitatea înseamnă evaluarea frecvenței evenimentului pe baza ușurinței cu care pot fi aduse exemple în minte. Ancorarea cu ajustare evidențiază tendința de a rămâne aproape de informația de referință (ancora), chiar dacă aceasta este arbitrară. Aceste euristici permit decizii rapide, cu efort mental minim, în situații obișnuite și previzibile, dar produc erori sistematice atunci când cineva încearcă activ să manipuleze informația. Biasul de confirmare și efectul de turmă sunt exploatate intens în campaniile de dezinformare. Biasul de confirmare este tendința naturală de a acorda mai multă atenție și credibilitate informațiilor care susțin convingerile noastre existente, în timp ce ignorăm sau contestăm pe cele care le contrazic. Efectul de turmă (bandwagon effect) se referă la faptul că adesea oamenii adoptă comportamente sau opinii larg acceptate de ceilalți, doar pentru că aceștia sunt mulți sau consideră că majoritatea nu se poate înșela. Cercetările recente arată că, dacă o informație falsă este repetată de mai multe ori, oamenii încep să o perceapă ca fiind adevărată, chiar dacă nu este. Acest fenomen se numește efectul iluziei adevărului. Studiile experimentale au demonstrat că uneori este suficient ca o afirmație să fie repetată o singură dată pentru ca probabilitatea ca ea să fie considerată adevărată să crească semnificativ. Cu cât este repetată mai des, cu atât oamenii devin mai convinși că este reală, chiar dacă inițial știau că este falsă. În cele din urmă, repetarea poate înlocui cunoașterea corectă și poate face ca o informație falsă să fie acceptată ca fapt.

    Construcția și diseminarea narațiunilor competitive oferă scenarii explicative simple care redefiniesc cine sunt actorii importanți, care sunt cauzele reale ale problemelor și ce valori ar trebui să aibă importanță. Narațiunile nu sunt doar simple povești despre evenimente, ci moduri structurate de a organiza înțelegerea noastră despre lume. Ele creează o hartă mentală clară: stabilesc cine sunt eroii și cine sunt dușmanii, ce este just și ce este injust. Repetarea constantă în spațiul public face ca aceste narațiuni să fie percepute drept realitate. Cercetarea asupra persuasiunii narative a descoperit că creierul uman procesează poveștile foarte diferit față de argumentele logice. În loc să activeze mecanisme defensive de contraargumentare, poveștile bine construite produc ceea ce cercetătorii numesc imersiune psihologică (narrative transportation). Cititorii sau spectatorii construiesc mental un model complet al lumii povestite și se transpun psihologic în acea lume. Ei reacționează emoțional și cognitiv ca și cum evenimentele ar fi reale și s-ar întâmpla cu adevărat. Această imersie profundă în narațiune reduce vigilența critică și deschide audiența la persuasiune prin trei mecanisme distincte: identificarea cu personajele și dorința de a urma modelul lor, învățarea incidentală de informații noi care par adevărate pentru că sunt încadrate în poveste și reamintirea sau reactivarea unor experiențe personale care rezonează cu tema povestirii. Metanarațiunile operează la un nivel mai abstract și mai cuprinzător decât narațiunile obișnuite. Ele sunt povești-cadru care oferă interpretări generale asupra modului în care funcționează lumea, conectând multiple evenimente aparent neconexe într-o viziune coerentă și simplificată. Spre deosebire de o poveste particulară despre un eveniment specific, o metanarațiune explică logica și sensul din spatele unui întreg șir de evenimente. Campaniile strategice de manipulare se concentrează pe construirea și susținerea unor metanarațiuni puternice, deoarece acestea oferă oamenilor explicații reconfortante și accesibile pentru o lume complexă, ambiguă și amenințătoare, chiar dacă adevărul este complet opus. Metanarațiunile false, odată stabilite prin repetare și susținere în narațiuni particularizate, rezistă puternic la contestare, deoarece afectează cadrul interpretativ complet prin care oamenii înțeleg lumea.

    Microtargetarea psihografică și profilarea personalizată au devenit posibile la scară largă odată cu acumularea masivă de date despre comportamentul utilizatorilor online și dezvoltarea algoritmilor de învățare automată. Procesul include trei etape distincte: colectarea datelor despre utilizatori, construirea profilelor psihologice și generarea de mesaje adaptate acestor profile. Cazul Cambridge Analytica a ilustrat amploarea și complexitatea acestei metode. Compania a colectat date de la aproximativ 87 de milioane de utilizatori Facebook fără consimțământul acestora pentru a interveni în campania prezidențială a lui Donald Trump din 2016. Echipa tehnică a construit profile psihografice detaliate folosind modelul OCEAN de personalitate (deschidere, conștiinciozitate, extraversie, agreabilitate și nevrotism). Pe baza acestor profile, compania a generat mesaje personalizate și le-a adaptat la vulnerabilitățile psihologice individuale ale fiecărui utilizator pentru a influența deciziile de vot. Deși eficiența reală a microtargetării rămâne discutabilă în literatura academică, cercetările arată că personalizarea mesajelor persuasive în funcție de trăsăturile psihologice ale audienței crește ratele de convingere. Efectele pot fi semnificative în contexte electorale strânse, unde marjele decizionale sunt reduse. Arsenalul tehnologic include analiza sentimentelor, segmentarea psihografică prin învățare automată, generarea de conținut personalizat folosind inteligență artificială generativă și orchestrarea lansării mesajelor prin optimizare algoritmică. Obiectivul final este maximizarea expunerii în momentele în care ținta este mai vulnerabilă emoțional sau cognitiv.

    3. Etape operaționale ale campaniilor de manipulare cognitivă

    Campaniile de manipulare cognitivă urmează o structură operațională secvențială, documentată riguros în literatura NATO și în analizele academice ale operațiunilor de influență realizate de actori statali și non-statali.

    Selectarea și segmentarea audiențelor reprezintă prima etapă strategică a oricărei campanii de manipulare cognitivă. În această etapă se identifică cu precizie grupurile țintă, temele emoționale relevante și momentele sau condițiile în care protecția critică a publicului este mai slabă. Vectorii emoționali sunt subiectele, imaginile și poveștile care trezesc în oameni emoții puternice ce îi pot determina să răspândească mesajele rapid. Specialiștii studiază reacțiile publicului la discuțiile din spațiul online și la evenimentele importante pentru a determina ce mesaje au cel mai mare impact. Punctele de vulnerabilitate din ecosistemul informațional sunt situații sau segmente sociale în care capacitatea oamenilor de a evalua critic informația este redusă. Acestea includ crizele, perioadele electorale, conflictele intense sau grupurile închise, influențabile din punct de vedere psihologic sau demografic. Documentele NATO privind războiul cognitiv arată că actorii statali adversari investesc resurse considerabile în cercetarea profilurilor psihologice ale liderilor politici, militari și ai opiniei publice. Acești actori dezvoltă baze de date extinse, care le permit să anticipeze reacțiile și să identifice mesajele cu cel mai puternic impact.

    Cercetările occidentale recente asupra campaniilor ruse din Ucraina au analizat operațiunile de Manipulare și Interferență Străină în Informații. Aceste campanii, cunoscute sub acronimul FIMI, reprezintă acțiuni coordonate ale statului rus (în acest caz) menite să manipuleze și să influențeze narativele informaționale la nivel internațional. Pentru a expune și descifra structura acestor atacuri cognitive, cercetătorii au aplicat cadrul analitic DISARM, un instrument defensiv dezvoltat de experți NATO și specialiști în securitate pentru identificarea și contracararea campaniilor de manipulare informațională.

    Cadrul DISARM structurează sistematic campaniile de manipulare cognitivă în șase faze succesive: detectarea inițială a campaniilor și a indiciilor de ingerință, identificarea actorilor implicați și a mijloacelor folosite, structurarea atacurilor în faze clare de evoluție și escaladare, activarea mesajelor și tacticilor persuasive, răspunsul prin monitorizarea și evaluarea impactului real și mitigarea prin implementarea de măsuri defensive de contracarare și atenuare a efectelor negative. Prin aplicarea acestui cadru analitic defensiv, cercetătorii occidentali au putut dezvălui cum operatorii ruși coordonează campaniile FIMI, pornind de la cercetarea și segmentarea audienței, trecând prin construcția narativelor, testarea și optimizarea, sincronizarea și amplificarea, până la normalizarea și ancorarea identitară, și, în final, negarea și camuflajul operațional. Această metodologie a permis o înțelegere aprofundată a mecanismelor psihologice și strategice exploatate pentru a influența percepțiile, deciziile și comportamentele publicului țintă.

    Etapele operaționale ale manipulării cognitive în medii digitale

    Etapa 1: Identificarea și profilarea țintei
    Etapa 2: Supraîncărcare emoțională/informațională
    Etapa 3: Erodarea gândirii critice și a încrederii
    Etapa 4: Introducerea narativului și construirea pseudorealității
    Etapa 5: Izolare socială/contextuală
    Etapa 6: Repetiție și consolidare
    Etapa 7: Controlul atitudinilor și comportamentelor

    Construcția narațiunii stabilește cadrul interpretativ, identifică dușmanii simbolici, valorile considerate amenințate (adică principiile sau idealurile protejate de comunitate) și adună dovezi ce pot fi refolosite pentru a menține coerența mesajului în timp. Această fază reprezintă, în esență, un act deliberat de creare a unei povești strategice. Echipele de specialiști în comunicare creează această poveste astfel încât să fie acceptată de public. Procesul include selectarea faptelor care susțin narațiunea și omiterea sau deformarea celor care o contrazic. Studiile arată că astfel de narațiuni nu sunt simple redări ale realității, ci reprezentații comunicative menite să modifice realitatea prin influențarea percepțiilor și comportamentelor audienței. Narațiunea „regimul neo-nazist de la Kiev” a fost (și este) utilizată de propaganda rusă în timpul invaziei Ucrainei. Această narațiune nu are susținere factuală, dar funcționează ca metanarațiune mobilizatoare pentru audiența internă rusă și ca instrument de delegitimare a guvernului ucrainean pentru audiențele externe susceptibile. Construcția acestei narațiuni a implicat selectarea de imagini, declarații scoase din context, asociații false și simboluri istorice recalibrate pentru a crea o aparentă coerență internă, chiar în absența corespondentului cu realitatea. Documentele tehnice ale companiilor de analiză de date arată că echipele de redactori publicitari, designeri și psihologi colaborează pentru a crea mesaje cu rezonanță care evocă experiențe emoționale puternice și declanșează răspunsuri impulsive, mai degrabă decât reflecție critică.

    Testarea și optimizarea constau în aplicarea testelor A/B pe platforme digitale, observarea implicării și ajustarea declanșatorilor emoționali și vizuali. Această fază importă metodologii din marketingul digital și le aplică manipulării cognitive, tratând persuasiunea ca pe o problemă de inginerie iterativă. Operatorii lansează multiple variante ale unui mesaj, măsoară care dintre ele generează cele mai multe interacțiuni și rafinează varianta câștigătoare. Aprecierile, distribuțiile, comentariile și clicurile devin indicatori de performanță. Operatorii relansează ciclul după fiecare optimizare. Platformele de socializare oferă instrumente sofisticate de testare pentru anunțători, permițându-le să experimenteze cu diferite combinații de text, imagini, titluri și apeluri la acțiune pentru a maximiza ratele de conversie. Actorii implicați în manipularea cognitivă exploatează aceste infrastructuri comerciale pentru a-și optimiza campaniile de influență. Mesajele false sau înșelătoare devin astfel mai virale decât informațiile corecte, dar mai puțin emoționante. Cercetarea empirică a arătat că știrile false se răspândesc pe Twitter semnificativ mai rapid și mai larg decât știrile adevărate. Fenomenul se accentuează în special când conținutul conține surpriză sau frică. Oamenii tind să redistribuie informații neobișnuite fără a verifica acuratețea lor. Această optimizare algoritmică a conținutului manipulator creează un dezavantaj sistemic pentru jurnalismul onest și factual. Jurnalismul restricționează voluntar utilizarea tehnicilor senzaționaliste, în timp ce manipulatorii nu au astfel de scrupule etice.

    Sincronizarea și amplificarea implică lansarea coordonată în momente favorabile. Crizele, alegerile și evenimentele cu încărcătură emoțională ridicată oferă momente optime pentru intervenție. Campaniile de influență digitală sunt conduse de echipe strategice care concep și distribuie mesajele principale. Aceste echipe nu operează izolat, ci coordonează rețele complexe compuse din trei componente complementare. În primul rând, coordonatorii strategici planifică obiectivele, creează narațiunile și stabilesc momentele de lansare. În al doilea rând, fermele de troli implică persoane reale care gestionează simultan zeci sau chiar sute de conturi false. Acești angajați postează manual, comentează, distribuie și interacționează cu publicul țintă, generând astfel o activitate aparent organică și masivă. În al treilea rând, rețelele automate de boți amplifică exponențial aceste eforturi umane prin redistribuirea automată a mesajelor, manipularea algoritmilor platformelor sociale și crearea unor iluzii de consens și popularitate. Studii academice recente asupra comportamentului inautentic coordonat arată că aceste trei componente lucrează în sincronizare precisă. Boții și fermele de troli colaborează pentru a produce atacuri informaționale puternice și coordonate. Fermele de troli furnizează conținutul original și autenticitatea umană necesare pentru a trece filtrele de detectare ale platformelor. Boții amplifică apoi aceste mesaje la scară masivă și cu rapiditate. Rezultatul este o cascadă de propagare în care mesajul inițial pare să provină din mii de surse independente, deși, în realitate, este emis de o operațiune centralizată. În timpul campaniei prezidențiale americane din 2016, echipele ruse de troli din Sankt Petersburg au demonstrat clar cum funcționează acest sistem. Ele au gestionat rețele de conturi false și au colaborat strâns cu boții pentru a amplifica mesaje polarizante pe teme de rasă, imigrație și siguranță națională. Strategia lor avea două direcții: pentru susținătorii unui candidat, mesajele consolidau convingerile și loialitatea; pentru susținătorii celeilalte candidate, scopul era să genereze descurajare și să reducă mobilizarea electorală.

    Normalizarea și ancorarea consolidează narațiunea prin repetare intensă, redistribuire coordonată și răsunet mediatic orchestrat până la internalizarea cadrului ca normalitate culturală. Această etapă profită de efectul iluziilor adevărului. Repetarea unei informații, chiar false, crește percepția de adevăr a acesteia, indiferent de cunoașterea inițială a subiectului. Studiile experimentale arată că expunerea repetată la teorii ale conspirației, chiar și cu scopul de a le demonta, conduce la creșterea credibilității acestora în timp. Familiaritatea generată prin repetare este interpretată greșit de creier ca fiind un semn al adevărului. O meta-analiză recentă asupra efectului iluziilor adevărului arată că repetarea crește încrederea în informații false cu o magnitudine de efect d = 0,60. Acest efect persistă chiar și atunci când participanții sunt inițial informați că afirmațiile sunt false. Manipulatorii cognitivi exploatează această vulnerabilitate prin diseminarea aceluiași mesaj pe multiple platforme, prin intermediul mai multor surse aparent independente, care sunt de fapt coordonate sau controlate clandestin. Strategia creează astfel iluzia că „toată lumea spune asta”, ceea ce declanșează efectul de turmă și reduce semnificativ rezistența critică. Ancorarea identitară completează normalizarea prin legarea narațiunii de identități, valori și loialități de grup. Dezacordul cognitiv cu narațiunea devine astfel un cost social și emoțional pentru individ. Această strategie explică de ce dezinformarea persistă chiar și în fața corecțiilor factuale. Pentru membrii unui grup identitar puternic legat, abandonarea unei credințe false echivalează cu trădarea grupului. Această conexiune emoțională cu grupul activează mecanisme psihologice de apărare care sunt mai puternice decât preferința pentru adevăr și exactitate.

    Negarea și camuflajul asigură negarea plauzibilă, mutarea constantă a țintelor și lansarea de contra-narațiuni menite să zăpăcească verificarea. Această etapă finală exploatează opacitatea arhitecturii digitale și dificultatea atribuirii acțiunilor în mediul online pentru a permite manipulatorilor cognitivi să nege orice implicare directă, chiar când dovezile circumstanțiale sunt puternice. Operatorii construiesc rețele de boți și conturi centrale cu multiple straturi de obscurizare. Utilizarea VPN-urilor, rotația IP-urilor, fragmentarea operațiunilor pe multiple jurisdicții și utilizarea serviciilor comerciale de amplificare aparent neutre fac identificarea mandantului real extrem de dificilă. Echipele de investigație ale platformelor sociale sau ale agențiilor de securitate națională întâmpină obstacole majore. Studii asupra campaniilor de manipulare și interferență informațională străină arată că operatorii ruși, chinezi și iranieni adoptă tactici sofisticate de camuflaj. Strategiile includ crearea de conturi false care mimează cetățeni locali, utilizarea profilurilor generate prin inteligență artificială pentru a conferi aparența de autenticitate și amplificarea strategică a conținutului organic. Conținutul organic este produs de utilizatori reali. Amplificarea acestui conținut susține narațiunea dorită, evitând astfel crearea de conținut original riscant. Contra-narațiunile sunt lansate strategic pentru a inunda spațiul public cu explicații alternative conflictuale. Publicul nu mai știe ce să creadă și abandonează încercarea de a determina adevărul, refugiindu-se în cinism generalizat sau în credințe bazate exclusiv pe afilierea de grup.

    4. Mijloace audio-video și digitale în manipularea cognitivă

    Mijloacele audio-video și digitale reprezintă infrastructura tehnologică prin care se realizează strategiile de manipulare cognitivă. Aceste instrumente oferă capacități fără precedent de producție, personalizare și diseminare a conținutului persuasiv la scară globală.

    Televiziunea și conținutul video online rămân principalele instrumente de persuasiune, folosind multiple canale senzoriale în campaniile de manipulare cognitivă. Aceste formate combină ritmul montajului, muzica, vocea naratorului și narațiunea vizuală pentru a maximiza impactul emoțional și cognitiv asupra publicului. Cercetările asupra efectelor media arată că formatele audio-vizuale produc un grad mult mai ridicat de imersiune narativă comparativ cu textul scris. Imersiunea narativă se referă la capacitatea unei narațiuni de a capta atenția receptorului și de a-l integra psihic în universul poveștii. Impactul simultan al stimulilor vizuali și auditivi generează procese cognitive în cortexul prefrontal, care se combină cu reacțiile emoționale generate de amigdală, în timp ce hipocampul consolidează aceste impresii în memorie, facilitând construirea unui model mental coerent și imersiv al lumii povestite. Acest avantaj persuasiv considerabil explică de ce campaniile de dezinformare investesc resurse semnificative în producția de înregistrări video de înaltă calitate. Studiile de neuromarketing arată că informația transmisă prin clipuri video generează o rată de retenție mai mare și o credibilitate percepută superioară față de mesajele text. Publicul atribuie mai multă credibilitate și putere persuasivă conținutului video decât mesajelor scrise, chiar și atunci când ambele transmit aceleași informații. Acest fenomen, cunoscut sub numele de tendința de a percepe videoclipurile ca mai credibile decât textul, este alimentat parțial de tendința umană de a asocia prezența elementelor senzoriale multiple cu autenticitatea și adevărul.

    Tehnologia de falsificare profundă (deepfake) a adăugat o nouă dimensiune alarmantă acestui peisaj. Sinteza video și audio bazată pe rețele neuronale profunde permite crearea de înregistrări false extrem de convingătoare. Liderii politici sau personalitățile publice par să spună sau să facă lucruri pe care nu le-au spus sau făcut niciodată. Studii recente legate de deepfake-urile politice arată că aceste tehnologii pot compromite integritatea proceselor democratice prin diseminarea de informații false în perioade electorale. Ele pot intimida sau discredita adversari politici și jurnaliști, pot crea incidente diplomatice false și pot eroda încrederea generală a publicului în autenticitatea oricărui material media. Cercetarea experimentală a demonstrat că expunerea la deepfake-uri plauzibile reduce capacitatea participanților de a distinge între adevăr și fals în expunerile ulterioare. Această constatare sugerează că normalizarea falsificărilor profunde poate conduce la deteriorarea epistemică generală a spațiului public.

    Mijloace audio-video utilizate în manipularea cognitivă

    Mijloc Mecanism de impact Credibilitate percepută
    Video tradițional (TV) Imersiune audio-vizuală Ridicat
    Video online (YouTube, TikTok) Personalizare algoritmică, viralitate Moderat-ridicat
    Deepfake Imitație hiper-realistă Foarte ridicat
    Podcast/audio Apropiere vocală, imersie auditivă Ridicat
    Livestream Autenticitate directă, interacțiune Foarte ridicat

    Platformele de socializare sunt utilizate ca infrastructură principală pentru diseminarea și amplificarea manipulării cognitive. Acestea oferă fluxuri algoritmice, funcționalități de partajare, transmisiuni live și povești care reduc complexitatea realității și încurajează oamenii să ia decizii rapide pe baza informațiilor incomplete. Algoritmii de recomandare ai platformelor precum Facebook, YouTube, Twitter/X și TikTok nu sunt neutri: ei selectează ce conținut vede fiecare utilizator și, prin urmare, ce cred oamenii că este adevărat. Platformele optimizează acești algoritmi nu pentru a servi utilizatorii, ci pentru a maximiza implicarea și revenirea acestora. Indicatorii cruciali sunt durata acestor interacțiuni, numărul de clicuri și partajări, precum și frecvența cu care utilizatorii revin. Acești indicatori de implicare se traduc direct în venituri din publicitate, creând un sistem în care conținutul senzațional și emoțional este favorizat în detrimentul informației precise.

    Cercetarea empirică arată că algoritmii promovează sistematic conținutul care evocă emoții intense. Furia, indignarea morală și surpriza generează mai mulți utilizatori decât informația neutră sau moderat pozitivă. Mesajele false, dar emoționante, primesc mult mai multă vizibilitate decât informația corectă, dar mai temperată. Această dinamică creează un mediu structural care favorizează manipularea cognitivă. Algoritmii de personalizare amplifică efectul prin ceea ce cercetătorii numesc camere de ecou (echo chambers) și bule filtrante (filter bubbles), unde utilizatorii sunt expuși în mod disproporționat la conținut care confirmă credințele lor preexistente. Rezultatul este progresiv: expunerea la perspective diverse scade dramatic, iar polarizarea ideologică se consolidează și se adâncește. Deși literatura academică discută gradul în care aceste efecte rezultă din arhitectura algoritmică versus alegerile active ale utilizatorilor, tendința cercetătorilor este de a concluziona că designul platformelor amplifică sistematic tendințele de auto-segregare ideologică. Platformele facilitează comportamentul coordonat neautentic prin oferirea de instrumente de targetare de mare precizie. Rețelele organizate de boți și ferme de troli exploatează aceste infrastructuri pentru a genera vizibilitate artificială, manipulând algoritmii de recomandare să perceapă anumite mesaje ca având suport organic și declanșând amplificarea în cascadă a conținutului manipulator.

    Formatele scurte și vizuale, precum clipurile video, meme-urile și carusele de imagini, simplifică realitatea și îi determină pe oameni să ia decizii rapide bazate pe informații incomplete. Aceste formate reduc capacitatea audienței de a analiza critic informațiile și de a identifica nuanțele unui argument. Platforma TikTok este un exemplu clar al acestei tendințe. Aplicația a evoluat de la videoclipuri de 15 secunde la 60 de secunde și recent la zece minute, însă algoritmul său de recomandare rămâne extrem de agresiv în personalizare. Utilizatorii sunt rapid conduși către ceea ce cercetătorii numesc bule informaționale, medii în care sunt expuși repetat la aceeași categorie de conținut, generând o iluzie de consens și inevitabilitate. Studiile asupra efectelor cognitive ale formatelor scurte arată că consumul intens de conținut fragmentat scade capacitatea de atenție susținută și slăbește abilitățile de înțelegere a textelor lungi. Acest tip de consum încurajează gândirea superficială, bazată pe impresii rapide, în detrimentul analizei profunde. Meme-urile, combinații de imagine și text concis, sunt instrumente extrem de eficiente pentru diseminarea rapidă a mesajelor ideologice. Sunt ușor de creat și distribuit, memorabile și capabile să transmită conținut satiric sau ideologic complex într-o formă compactă. Cercetările privind utilizarea meme-urilor în campanii politice arată că acestea funcționează ca vehicule pentru propagarea narațiunilor simplificate și a cadrelor ideologice. Capacitatea lor de a evoca emoții puternice în câteva secunde le face mai influente decât argumentele detaliate sau analizele factuale în formarea rapidă a opiniilor.

    Tehnologiile emergente, precum falsificările profunde (deepfake), sinteza vocală și generatorii de text și imagini bazate pe inteligență artificială, permit producerea și distribuția în masă a conținutului manipulator. Aceste tehnologii reduc semnificativ costurile și barierele tehnice pentru operațiuni ample de manipulare cognitivă. Instrumente precum ChatGPT, DALL-E, Midjourney și Stable Diffusion permit oricui, cu competențe tehnice minime, să producă text persuasiv, imagini realiste sau chiar videoclipuri sintetice în câteva minute. Această proliferare a capacității de manipulare multiplică numărul de actori care pot desfășura operațiuni de influență. În același timp, capacitatea instituțiilor de a monitoriza și combate diseminarea conținutului fals scade dramatic. Cercetările recente privind utilizarea inteligenței artificiale generative în dezinformare arată că aceste instrumente pot genera articole de știri false care seamănă cu articole jurnalistice autentice. Grupurile coordonate de dezinformare pot crea profiluri false pe rețelele sociale, complete cu biografii plauzibile și istorice de postări. Sistemele pot automatiza producția de comentarii și răspunsuri care inundă conversațiile publice cu mesaje manipulative. Studii experimentale au demonstrat că textele generate de inteligența artificială pot fi la fel de persuasive ca cele scrise de oameni. În unele cazuri, textele sintetice pot fi chiar mai persuasive, deoarece algoritmii pot optimiza limbajul pentru a evoca răspunsuri emoționale și cognitive specifice. Combinarea inteligenței artificiale generative cu microtargetarea psihografică implică riscuri profunde privind autonomia și demnitatea oamenilor. Sistemele ar putea crea mesaje personalizate la scară largă, fiecare mesaj fiind calculat pentru a exploata vulnerabilitățile psihologice unice ale fiecărei persoane. Ceea ce cercetătorii numesc „hypernudging”, o formă de influență care depășește limita persuasiunii obișnuite, ar putea transforma democrația într-un teren unde persuasiunea politică devine inginerie cognitivă de precizie. Oamenii nu ar mai fi cetățeni cu agenție, ci ținte pentru optimizare comportamentală.

    5. Mecanismele psiho-cognitive ale construirii pseudorealității

    Construcția și consolidarea unei pseudo-realități se bazează pe mecanisme psiho-cognitive universale, validate riguros prin cercetări psihologice și neuroștiințifice contemporane. O pseudo-realitate este un sistem coerent de percepții, interpretări și narațiuni care înlocuiește sau distorsionează realitatea obiectivă.

    Reprezentarea versus realitatea constituie fundamentul teoretic pentru înțelegerea modului în care mass-media și platformele digitale nu reflectă realitatea, ci o reprezintă. Acest proces introduce în mod constant riscul distorsionării percepției. Această distincție, esențială în teoria comunicării, arată că orice act de comunicare mediată implică selecție, cadrare și interpretare. Reprezentarea nu este niciodată o oglindă neutră a realității, ci o construcție activă care evidențiază anumite aspecte și ascunde altele.

    Teoriile constructiviste sociale susțin că realitatea socială este în mare măsură un produs al narațiunilor pe care le împărtășim colectiv. Mass-media nu doar relatează evenimentele, ci participă activ la construirea înțelegerii noastre despre ce este real și important. Această observație devine esențială în contextul manipulării cognitive. Actori rău intenționați pot exploata acest proces de reprezentare pentru a înlocui realitatea verificabilă cu narațiuni fabricate care servesc interese strategice. Cercetările privind stabilirea agendei de nivel doi arată că media nu doar stabilește despre ce subiecte gândim, ci și cum gândim despre ele. Media configurează atributele importante ale evenimentelor și persoanelor, influențând astfel evaluările morale și judecățile de responsabilitate ale publicului.

    Fazele simulacrului în manipularea cognitivă (conform Baudrillard)

    Fază Caracteristică Exemplu în manipularea digitală
    Faza 1: Reflectare Copie fidelă a realității Fotografii autentice, înregistrări reale
    Faza 2: Pervertire Reprezentare care denaturează Imagini editate, contexte manipulate
    Faza 3: Pretinsa realitate Simulare fără model real Evenimente fabricate, narațiuni sintetice
    Faza 4: Simulacrul pur Semn fără referință la realitate Hiperealitate digitală, pseudorealități coerente

    Filozoful francez Jean Baudrillard a teoretizat conceptele de simulacru și hiperrealitare în 1981 pentru a explica transformările din societatea contemporană mediate de mass-media tradițională. Conceptele sale despre cum reprezentările devin mai influente decât realitatea verificabilă se aplică și mai puternic ecosistemului digital actual.

    Un simulacru este o reprezentare care nu mai are legătură cu o realitate originală verificabilă. Un exemplu concret din era digitală este o fotografie falsificată care prezintă un eveniment politic care nu a avut loc niciodată. Imaginea circulă pe rețelele sociale, este comentată și distribuită ca dovadă reală, deși nu există niciun eveniment real în spatele ei. Aceasta este o copie fără original, o reprezentare care funcționează autonom în spațiul public și este amplificată de algoritmi care nu fac diferența între conținut fals și real.

    Hiperrealitatea este starea culturală în care astfel de reprezentări proliferează masiv și devin mai credibile decât realitatea verificabilă însăși. În ecosistemul digital actual, oamenii interacționează constant cu imagini editate, videoclipuri optimizate, narațiuni fabricate și chiar conținut generat de inteligență artificială, care servesc drept referință pentru modul în care publicul înțelege ce este normal sau adevărat. Aceste reprezentări nu mai servesc ca intermediar către realitate, ci devin ele însele realitatea consumată, orientând comportamentele pe baza aparenței mai degrabă decât pe baza faptelor verificabile.

    Baudrillard a identificat patru faze ale simulacrului, de la reprezentarea fidelă la simulacrul pur. În prima fază, reprezentarea este o copie exactă a realității, precum o fotografie nemodificată. În a doua fază, reprezentarea denaturează realitatea prin editare sau selecție. În a treia fază, reprezentarea simulează o realitate inexistentă, cum ar fi scenele create pentru propagandă. În faza finală, a simulacrului pur, mesajul fals, sub formă de imagine, video sau text, nu mai are nicio legătură cu realitatea verificabilă și se răspândește independent, fiind consumat și partajat ca și cum ar fi autentic. În mediul digital contemporan, platformele sociale amplifică masiv această ultimă fază, unde publicul consumă reprezentări fără a mai putea verifica dacă există ceva real în spatele lor.

    Aplicat manipulării cognitive digitale, acest cadru teoretic arată cum proliferarea coordonată a conținutului fals produce o confuzie sistemică între autentic și fabricat. Algoritmii platformelor amplifică mesajele emoționante, indiferent de acuratețea lor, iar rețelele de boți și fermele de troli generează volume uriașe de conținut fals. În plus, tehnologiile emergente precum inteligența artificială generativă și deepfake-urile permit producerea la scară industrială a unor reprezentări false extrem de convingătoare. Rezultatul este că publicul pierde capacitatea de a distinge între dovezile reale și narațiunile deliberate fabricate, iar comportamentele sunt modelate pe baza unui mediu informațional care nu mai corespunde realității verificabile. Cercetări recente privind hiper-realitatea pe platformele de socializare arată că utilizatorii Instagram și TikTok construiesc vieți idealizate, filtrate și optimizate, care nu reflectă realitatea experiențelor lor cotidiene. Aceste reprezentări fabricate devin referințele culturale prin care alți utilizatori judecă normalitatea și succesul. Imagini perfect iluminate, vacanțe spectaculoase și vieți aparent fără probleme creează standarde artificiale de comportament și aspirații. În consecință, ele generează presiuni psihologice intense asupra celor care încearcă să se conformeze acestor modele imposibile.

    În domeniul manipulării cognitive, hiperrealitatea urmează o dinamică similară. Narațiunile false, dar coerente, devin mai credibile pentru audiență decât faptele verificabile, dar fragmentate și greu de sintetizat. Coerența internă a narațiunilor false creează o iluzie de plauzibilitate și adevăr. Repetarea sistematică pe mai multe platforme produce obișnuință și confort psihologic, determinând oamenii să perceapă repetarea ca dovadă de adevăr. În contrast, realitatea empirică este complexă, fragmentată și dificil de sintetizat. Această complexitate descurajează publicul să se angajeze în gândirea critică profundă și analitică. Prin urmare, publicul preferă narațiunile simple, coerente și repetate, chiar dacă sunt false.

    Dezinformarea perturbă bucla OODA la două niveluri. Mai întâi, congestia informațională distruge observația: volumul masiv de mesaje contradictorii face imposibilă distingerea adevărului. Apoi, cadrele false distorsionează orientarea: narațiunile intenționat modelate ne forțează să interpretăm realitatea printr-o lentilă falsă. Rezultatul: atât observația, cât și orientarea sunt compromise, iar comportamentele corespund unei realități care nu mai există. John Boyd, strateg militar american, a dezvoltat modelul OODA Loop pentru a descrie ciclul decizional în confruntări competitive rapide. Modelul cuprinde patru faze: observă (O), orientează (O), decide (D), acționează (A). Boyd a argumentat că succesul în conflict depinde de capacitatea de a parcurge mai rapid și mai eficient acest ciclu decizional decât adversarul. Obiectivul constă în a opera în interiorul buclei OODA a oponentului, ceea ce înseamnă că îl dezorientează și îi blochează capacitatea de a reacționa eficient.

    Cercetarea militară și de securitate a extins acest model la războiul cognitiv. Manipularea informațională vizează în mod explicit perturbarea fazei de orientare (O). Aceasta este procesul prin care individul sau organizația integrează observațiile noi cu cunoștințele anterioare, modelele mentale, cultura și experiența pentru a construi o înțelegere coerentă a situației. Atunci când dezinformarea saturează spațiul public cu volume mari de informații false, contradictorii și ambigue, cetățenii pierd capacitatea de a distinge adevărul de minciună. Sistemul lor de evaluare a credibilității surselor se prăbușește sub greutatea dezinformării coordonate. Dezinformarea distruge capacitatea de a construi o reprezentare coerentă a realității. Rezultatul este paralizia decizională sau luarea de decizii bazate pe premise false. Ambele rezultate sunt de dorit pentru manipulator. Studii asupra războiului informațional în Ucraina arată că operațiunile de manipulare și interferență informațională străină rusești au vizat sistematic perturbarea buclelor OODA ale liderilor militari ucraineni. Strategia a inclus diseminarea de informații false despre mișcările trupelor, atacuri de dezinformare asupra familiilor militarilor și crearea de confuzie strategică în spațiul public. Toate aceste acțiuni au avut scopul de a încetini și de a deforma procesele decizionale ucrainene.

    Ancorarea emoțională reprezintă un mecanism psiho-cognitiv esențial prin care narațiunile manipulatoare se fixează în memoria pe termen lung, fiind stabilizate prin asocierea deliberată cu emoții negative intense. Cercetările neuroștiințifice actuale arată că experiențele cu o valență emoțională puternică sunt consolidate mai eficient în memoria pe termen lung comparativ cu cele fără încărcătură emoțională. Această diferență se datorează activării sistemului amigdalian în momentul procesării inițiale a informației. Această activare susține atât codificarea inițială a reprezentării mentale, cât și consolidarea ulterioară a urmei mnemonice prin mecanisme de potențare sinaptică pe termen lung. Această corespondență între mecanismele biologice de memorare și strategiile de manipulare cognitivă explică de ce narațiunile emoționale polarizante se transmit mai ușor decât informațiile factuale, neîncărcate emoțional. Sistemul amigdalian, o structură limbică care gestionează fricile și emoțiile intense, constituie fundamentul biologic al ancorării emoționale. Acest mecanism s-a dezvoltat evolutiv ca strategie adaptativă pentru a ne ajuta să reținem rapid și durabil informații esențiale despre amenințări și oportunități. Din perspectiva psihologiei evolutive, această capacitate nu este întâmplătoare: indivizii care rețineau rapid și consolidau durabil avertismentele despre pericole aveau șanse semnificativ mai mari de supraviețuire și reproducere în mediile ancestrale pline de amenințări, motiv pentru care acest mecanism rămâne puternic și vulnerabil în creierul contemporan. Această vulnerabilitate biologică, care a oferit un avantaj selectiv în mediile ancestrale, a fost identificată și exploatată sistematic de operatorii de manipulare cognitivă în epoca digitală. În loc să fie depășită prin educație și conștientizare, ea a fost transformată într-un vector de atac, iar manipulatorii cognitivi asociază intenționat narațiunile false cu stimuli emoționali negativi intenși pentru a se asigura că mesajele vor fi memorate mai ușor și redistribuite mai rapid decât informațiile factuale neutre. Exploatarea sistematică a acestor vectori emoționali urmează modele precise și reproductibile de calibrare psihologică. Atunci când simțim frică, se activează sistemele neurale de vigilență și apărare, concentrând atenția asupra amenințărilor percepute și suspendând gândirea critică. În starea de furie, se mobilizează agresivitatea și acțiunea directă, anulând capacitatea de analiză rațională. Indignarea morală combină sentimentul că oponenții încalcă valorile etice pe care le susținem cu emoție negativă intensă, transformând dezacordul politic în conflict bazat pe valori morale. Dezgustul intens, prin natura sa fiziologică, produce reacții instinctive de respingere și diseminare automată în rețele sociale, facilitând memorarea durabilă și viralizarea exponențială a narațiunilor false chiar și atunci când sunt contrazise de dovezi.

    Cercetările privind răspândirea emoțiilor în rețelele sociale au evidențiat o diferență semnificativă în viteza de propagare între diferitele tipuri de mesaje. Mesajele încărcate cu judecăți morale și emoții intense, precum expresiile care acuză o trădare a valorilor, se răspândesc de aproximativ șase ori mai rapid și ajung la de trei ori mai mulți oameni decât mesajele bazate exclusiv pe fapte și informații verificabile. Această diferență nu este întâmplătoare: emoțiile puternice, în special mânia și revolta, influențează capacitatea noastră de a gândi critic și ne determină să partajăm mesajul mai departe, transformând fiecare persoană care îl citește într-un difuzor activ al acelui mesaj. Limbajul moral-emoțional combină conținutul moral cu o intensitate emoțională ridicată și activează simultan identitatea de grup și mecanismele de alarmă emoțională. Cercetările asupra polarizării emoționale arată că emoțiile nu doar însoțesc dezacordurile ideologice, ci devin motorul principal al diviziunilor politice. Membrii grupurilor opuse nu doar că au opinii diferite, ci se tem și se detestă reciproc. Această dinamică face dialogul constructiv aproape imposibil și consolidează camerele de ecou ideologice, în care fiecare grup consumă exclusiv informații care întăresc convingerile sale despre superioritatea morală a propriei poziții și pericolul reprezentat de adversar.

    Întărirea prin repetiție și efectul iluziei adevărului cresc credibilitatea afirmațiilor repetate în contexte aparent diferite, chiar și atunci când acestea contrazic cunoștințele inițiale despre subiect. Acest mecanism cognitiv a fost descoperit experimental în anii 1970 și a fost replicat în sute de studii ulterioare. El arată că familiaritatea generată de expunerea repetată la o afirmație este interpretată greșit de creier ca un semn al adevărului. Efectul este robust și se manifestă chiar și atunci când participanții sunt avertizați că unele afirmații sunt false. Efectul persistă chiar și atunci când repetarea provine din surse diferite, ceea ce ar putea sugera independență. De asemenea, acesta se menține chiar și când intervalul de timp dintre repetări este scurt, de zile sau săptămâni.

    Meta-analize recente confirmă că repetarea crește credința în dezinformare cu o magnitudine moderată, dar consistentă. Valoarea efectului este aproximativ d = 0,60. Efectul persistă la testele de follow-up după luni de zile, sugerând că repetarea are un impact pe termen lung asupra sistemelor de credință. Manipulatorii cognitivi exploatează acest mecanism prin diseminarea coordonată a acelorași narațiuni false pe multiple platforme. Diseminarea se face prin intermediul a zeci sau sute de conturi, unele autentice, altele false. Strategia creează astfel impresia că „toată lumea spune asta” și declanșează atât efectul iluziei adevărului, cât și efectul de turmă. Studii experimentale arată că, chiar și teoriile conspirației implauzibile devin mai credibile după repetare, deși efectul este mai mic decât pentru afirmațiile mai plauzibile. Această constatare sugerează că repetarea poate muta chiar și credințe rezistente spre acceptare, dacă volumul de repetiții este suficient.

    Selectivitatea sistematică, verosimilitatea narativă, ecologia informațională controlată și ancorarea identitară colaborează pentru a construi o pseudo-realitate coerentă intern, dar lipsită de ancorare în fapte verificabile. Selectivitatea sistematică constă în alegerea exclusivă a faptelor parțiale care susțin narațiunea dorită și omiterea deliberată a contraprobelor. Această strategie produce o lume aparent coerentă, dar fundamental falsă. Verosimilitatea narativă substituie criteriul adevărului empiric cu criteriul coerenței interne. O poveste care sună bine, care are protagoniști, antagoniști, motive clare și o structură dramatică satisfăcătoare devine credibilă pentru public, chiar dacă nu corespunde realității. Creierul uman este predispus evolutiv să proceseze și să rețină informații în format narativ. Cercetările asupra persuasiunii narative arată că poveștile bine construite reduc contra-argumentarea, cresc identificarea emoțională cu personajele și produc schimbări de atitudine care persistă în timp. Aceste efecte se manifestă chiar și atunci când audiența este informată că povestea este ficțiune. Ecologia informațională controlată se referă la construcția intenționată a unui mediu mediatic în care toate sursele aparent independente promovează aceeași narațiune. Strategia creează senzația de consens social și elimină expunerea la perspective alternative. Camerele de ecou ideologice și bulele de filtrare facilitează această construcție. Utilizatorii ajung să fie expuși exclusiv la conținut care confirmă credințele grupului lor identitar. Această dinamică întărește convingerea că toți oamenii rezonabili gândesc astfel. Ancorarea identitară transformă dezacordul cognitiv cu narațiunea în cost social și emoțional. Dacă narațiunea falsă devine marcator identitar al grupului, atunci contestarea narațiunii echivalează cu trădarea grupului și riscul excluderii sociale. Această dinamică activează mecanisme psihologice de apărare mult mai puternice decât dorința abstractă de acuratețe epistemică. Cercetările asupra identității sociale și gândirii motivate arată că oamenii nu procesează informațiile în mod neutru, ci selectiv, pentru a-și proteja apartenența la grup. Când un individ se identifică puternic cu un grup politic, religios sau ideologic, creierul său tinde să interpreteze informațiile noi astfel încât să mențină credințele grupului respectiv. Aceasta înseamnă că informațiile care confirmă credințele grupului sunt acceptate rapid, în timp ce informațiile care contrazic aceste credințe sunt fie ignorate, fie reinterpretate pentru a elimina contradicția. Această procesare selectivă are loc chiar și atunci când implică distorsiunea sau ignorarea dovezilor verificabile.

    6. Indicatori de alertă și măsuri de reziliență cognitivă

    Cercetarea occidentală contemporană arată că manipularea cognitivă în era digitală integrează tehnici multistrat sofisticate, având ca scop construirea și consolidarea pseudorealităților care înlocuiesc percepția obiectivă și facilitează controlul atitudinal și comportamental al indivizilor. De la falsificările profunde și microtargetare, până la exploatarea sistematică a biasurilor cognitive, arsenalul manipulatorilor s-a diversificat și a devenit mult mai sofisticat. Principalele riscuri provin din viteza de circulație a informației, vulnerabilitatea cognitivă structurală a persoanelor, lipsa alfabetizării media-critice și amplificarea algoritmică a conținutului emoțional și polarizant.

    Identificarea indicatorilor de alertă reprezintă prima linie de apărare împotriva manipulării cognitive. O diferență semnificativă între intensitatea emoțională a mesajului și nivelul detaliilor probelor prezentate este un indicator principal de manipulare cognitivă. Mesajele autentice oferă dovezi proporționale cu afirmațiile făcute, în timp ce mesajele manipulatoare generează emoții extreme bazate pe probe slabe sau inexistente. Cercetările privind detectarea dezinformării arată că mesajele false utilizează limbaj hiperbolic, fac afirmații categorice fără nuanțe, invocă conspirații fără mecanisme plauzibile și atribuie intenții rele fără dovezi directe.

    Multiplicarea rapidă a dovezilor circulare între surse interconectate este un alt semnal de alarmă. În ecosistemele de dezinformare, aceeași afirmație falsă este repetată de multiple surse care se citează reciproc. Această strategie creează aparența unei convergențe independente, deși, în realitate, toate sursele provin din aceeași operațiune coordonată. Inconsistențele tolerate în timp, mascate de reîncadrarea continuă a subiectului, relevă lipsa unui fundament factual. Narațiunile false se adaptează constant pentru a evita demontarea. Ele mută acuzațiile, schimbă detaliile sau redefinesc termenii atunci când sunt confruntate cu dovezi contrare. În contrast, narațiunile ancorate în realitate rămân stabile, deoarece faptele nu se schimbă.

    Reziliența cognitivă necesită o abordare integrată care combină instrumente tehnologice cu măsuri educaționale și psihosociale. Sistemele de detectare a manipulărilor audio-video, mecanismele de verificare a faptelor și reglementările algoritmilor platformelor constituie componentele tehnologice. Consolidarea gândirii critice, diversificarea surselor informaționale, instruirea etică și conștientizarea mecanismelor manipulării formează dimensiunea educațională și psihosocială. Alfabetizarea media și gândirea critică, implementate prin programe educaționale care explică tehnicile de reprezentare și distorsionare media, au fost propuse pe larg ca soluții durabile pentru creșterea rezilienței cognitive a populațiilor.

    O meta-analiză recentă a 177 de studii care au examinat eficiența intervențiilor de alfabetizare media arată că acestea îmbunătățesc în general reziliența la dezinformare, având o magnitudine a efectului moderată, cu valoarea d = 0,60. Intervențiile reduc credința în dezinformare cu d = 0,27, îmbunătățesc capacitatea de a distinge între informații adevărate și false cu d = 0,76 și reduc intențiile de redistribuire a dezinformării cu d = 1,04. Studiul evidențiază, de asemenea, că intervențiile cu mai multe sesiuni sunt mai eficiente decât cele cu o singură sesiune. Efectele sunt mai puternice în culturi cu o aversiune ridicată față de incertitudine. Studenții universitari beneficiază mai mult decât adulții recrutați de pe platforme online de crowdsourcing.

    Cu toate acestea, cercetările asupra efectelor pe termen lung ale acestor intervenții arată rezultate mai puțin optimiste. Studiile care au urmărit participanții timp de trei luni după intervenție au constatat că beneficiile scad semnificativ în timp. Această constatare sugerează că cunoștințele și abilitățile dobândite se erodează dacă nu sunt practicate și întărite constant. Alfabetizarea media nu poate fi un vaccin aplicat o singură dată, ci trebuie integrată ca practică continuă în educația formală și în consumul media cotidian.

    Igiena informațională reprezintă un set de practici individuale care pot reduce vulnerabilitatea la manipulare. Verificările cross-sursă, pauzele de atenție și prioritizarea calității în fața volumului constituie pilonii acestei abordări. Cercetările asupra fact-checking-ului arată că învățarea tehnicii de citire laterală îmbunătățește semnificativ capacitatea de a identifica informațiile false. În loc să analizeze doar conținutul paginii respective, utilizatorii verifică rapid credibilitatea unei surse consultând surse terțe. Studii experimentale au demonstrat că chiar și o intervenție scurtă de o oră, care învață această tehnică, poate produce efecte imediate și pe termen scurt asupra capacității de evaluare a credibilității știrilor. Efectele pe termen lung rămân însă incerte.

    Pauzele de atenție, prin întreruperea deliberată a consumului media pentru a reduce supraîncărcarea cognitivă, au fost propuse ca strategie de protecție împotriva manipulării prin volum. Aceste pauze permit sistemului cognitiv să se recupereze și să reanalizeze critic informațiile acumulate. Diversificarea surselor, prin consultarea deliberată a unor perspective ideologice și culturale variate, poate contracara efectele camerelor de ecou și ale bulelor de filtrare. Cercetările experimentale arată rezultate mixte. Unele studii sugerează că expunerea forțată la perspective opuse poate reduce polarizarea, în timp ce altele arată că poate produce efecte contrare, consolidând convingerile inițiale dacă expunerea este percepută ca ostilă sau nelegitimă.

    Cadrul NATO pentru războiul cognitiv oferă o perspectivă strategică asupra efectelor, tacticilor și interacțiunii cu operațiunile cibernetice și hibride. Acest cadru integrează dimensiunile psihologice, informaționale și tehnologice ale competiției în domeniul cognitiv. Documentele produse de Allied Command Transformation Innovation Hub între 2020 și 2024 definesc războiul cognitiv ca fiind invizibil până când impactul său devine evident. La acel moment, de obicei, este prea târziu pentru o contracarare eficientă. Cadrele analitice propuse includ identificarea vectorilor de atac, evaluarea vulnerabilităților populațiilor țintă și dezvoltarea capacităților de reziliență la nivel individual, organizațional și societal. Vectorii de atac includ platforme sociale, media tradițională, educație și cultură populară. Vulnerabilitățile cuprind niveluri scăzute de alfabetizare media, polarizare politică preexistentă și erodarea încrederii în instituții.

    Recomandările NATO includ investiții pe termen lung în educația media, dezvoltarea unor instrumente tehnologice pentru detectarea automată a campaniilor de manipulare coordonată, întărirea cadrului legal și etic pentru moderarea conținutului pe platforme și consolidarea cooperării internaționale pentru identificarea și sancționarea actorilor statali și non-statali implicați în operațiuni de război cognitiv. Uniunea Europeană a avansat în paralel prin Digital Services Act, care impune platformelor mari transparență sporită privind algoritmii de recomandare, obligații de moderare a conținutului ilegal și dăunător și mecanisme independente de audit. Toate aceste măsuri au scopul de a reduce capacitatea actorilor rău intenționați de a exploata infrastructurile digitale pentru manipulare la scară largă.

    Literatura evidențiază faptul că responsabilitatea rezilienței nu poate fi externalizată exclusiv către instituții sau tehnologie. Aceasta implică participarea activă a cetățenilor în evaluarea critică a informațiilor, verificarea surselor și cultivarea unei atitudini reflexive față de conținutul digital consumat. Perspectivele viitoare de cercetare includ dezvoltarea de modele predictive ale vulnerabilității cognitive, analiza comparativă a eficacității măsurilor de prevenire a manipulării și investigarea impactului pe termen lung al expunerii la pseudorealități asupra sănătății mentale și coeziunii sociale. Prezenta sinteză a literaturii occidentale de specialitate oferă instrumente conceptuale solide pentru înțelegerea acestui fenomen complex. De la cadrele clasice de stabilire a agendei și cadrare ale lui McCombs, Shaw și Entman, la doctrinele contemporane de război cognitiv ale NATO, până la teoriile critice ale lui Baudrillard despre simulacru și hiperrealitate, corpusul academic occidental pune bazele necesare pentru elaborarea politicilor publice, practicilor educaționale și designului tehnologic responsabil. Aceste instrumente sunt esențiale pentru protejarea proceselor democratice, coeziunii sociale și capacității colective de a lua decizii informate în era digitală.

    Surse bibliografice

    1. Claverie, Bernard, și François du Cluzel. “Cognitive Warfare Concept.” NATO Allied Command Transformation Innovation Hub, 2023.
    2. Deppe, Christoph, și Gary S. Schaal. “Cognitive Warfare: A Conceptual Analysis of the NATO ACT Cognitive Warfare Exploratory Concept.” Frontiers in Big Data, 2024.
    3. McCombs, Maxwell, și Donald Shaw. “The Agenda-Setting Function of Mass Media.” Public Opinion Quarterly 36, no. 2 (1972): 176-187.
    4. Entman, Robert M. “Framing: Toward Clarification of a Fractured Paradigm.” Journal of Communication 43, no. 4 (1993): 51-58.
    5. Baudrillard, Jean. Simulacre et Simulation. Paris: Éditions Galilée, 1981.
    6. Pennycook, Gordon, și David G. Rand. “Fighting COVID-19 Misinformation on Social Media: Experimental Evidence for a Scalable Accuracy-Nudge Intervention.” Psychological Science 31, no. 7 (2020): 770-780.
    7. Lazer, David M.J., et al. “The Science of Fake News.” Science 359, no. 6380 (2018): 1094-1096.
    8. Goldenberg, Amit, și James J. Gross. “Digital Emotion Contagion.” Trends in Cognitive Sciences 24, no. 4 (2020): 316-328.
    9. Tversky, Amos, și Daniel Kahneman. “Judgment under Uncertainty: Heuristics and Biases.” Science 185, no. 4157 (1974): 1124-1131.
    10. Green, Donald P., și Christopher T. Kenny. “Cambridge Analytica’s Psychographic Profiling and Targeting.” Frontiers in Communication 5 (2020).
    11. Allcott, Hunt, și Matthew Gentzkow. “Social Media and Fake News in the 2016 Election.” Journal of Economic Perspectives 31, no. 2 (2017): 211-236.
    12. Vosoughi, Soroush, Deb Roy, și Sinan Aral. “The Spread of True and False News Online.” Science 359, no. 6380 (2018): 1146-1151.
    13. Bradshaw, Samantha, și Philip N. Howard. “The Global Disinformation Order: 2019 Global Inventory of Organised Social Media Manipulation.” Working Paper 2019.3, Project on Computational Propaganda, Oxford, 2019.
    14. Tandoc Jr., Edson C., et al. “Defining ‘Fake News’: A Typology of Scholarly Definitions.” Digital Journalism 6, no. 2 (2018): 137-153.
    15. International Telecommunication Union. “Deepfakes and Democracies: Risks and Responses.” ITU Report, 2022.
    16. Boyd, John R. “A Discourse on Winning and Losing.” Air University, Maxwell Air Force Base, 1987.
    17. Pennycook, Gordon, și David G. Rand. “The Illusory Truth Effect: A Meta-Analysis.” Perspectives on Psychological Science 19, no. 6 (2024): 1176-1190.
    18. Sunstein, Cass R. Republic.com 2.0. Princeton: Princeton University Press, 2007.
    19. European Union Institute for Security Studies. “Smoke and Mirrors: Building EU Resilience against Manipulation through Cognitive Security.” EUISS Brief, 2025.
    20. Green, Donald P., și Christopher T. Kenny. “Psychographic Profiling and Cambridge Analytica.” Frontiers in Communication, 2020.
    21. “Image and Video Manipulation: The Generation of Deepfakes.” Universitat de Barcelona, 2023.
    22. Chen, Shuiqiao, et al. “Spread of Misinformation on Social Media: What Contributes to It and How to Combat It.” Computers in Human Behavior 141 (2023): 107643.
    23. Brader, Ted. Campaigning for Hearts and Minds: How Emotional Appeals in Political Ads Work. Chicago: University of Chicago Press, 2006.
    24. Cialdini, Robert B. Influence: The Psychology of Persuasion. New York: HarperCollins, 2006.
    25. “Discourse Structures and Propaganda.” EMNLP, 2023.
    26. “Disinformation and Strategic Frames: Introducing the Concept of a Strategic Epistemology Towards Media.” Media, Culture & Society 46, no. 8 (2024): 1691-1709.
    27. “Effective Yet Ephemeral Propaganda Defense.” arXiv, 2025.
    28. Entman, Robert M. “Framing: Toward Clarification of a Fractured Paradigm.” Journal of Communication 43, no. 4 (1993): 51-58.
    29. “Exploring Alternative Computational Approaches for News Framing.” Journalism & Mass Communication Quarterly, 2025.
    30. “Framing Affects Support for AI Development.” Science Communication 47, no. 1 (2025): 105-134.
    31. “Framing as a Concept: Organized Persuasive Communication.” Critical Sociology 45, no. 7-8 (2019): 935-951.
    32. Gamson, William A., și Andre Modigliani. “Media Discourse and Public Opinion on Nuclear Power: A Constructionist Approach.” American Journal of Sociology 95, no. 1 (1989): 1-37.
    33. Grabe, Maria Elena, și Erik P. Bucy. Image Bite Politics: Spectacles and Emergencies on American Television News. Oxford: Oxford University Press, 2009.
    34. Hallahan, Kirk. “Seven Models of Framing: Implications for Public Relations.” Journal of Public Relations Research 11, no. 3 (1999): 205-242.
    35. “Impact of Media Framing in Complex Information Environments.” Political Communication, 2025.
    36. Iyengar, Shanto. Is Anyone Responsible? How Television Frames Political Issues. Chicago: University of Chicago Press, 1991.
    37. Jowett, Garth S., și Victoria O’Donnell. Propaganda & Persuasion. 7th ed. Thousand Oaks: SAGE Publications, 2019.
    38. Jowett, Garth S., și Victoria O’Donnell. Propaganda and Persuasion. 4th ed. Thousand Oaks: SAGE Publications, 2006.
    39. Kahneman, Daniel. Thinking, Fast and Slow. New York: Farrar, Straus and Giroux, 2011.
    40. Lakoff, George. Don’t Think of an Elephant! Know Your Values and Frame the Debate. White River Junction: Chelsea Green Publishing, 2004.
    41. McCombs, Maxwell, și Donald Shaw. “The Agenda-Setting Function of Mass Media.” Public Opinion Quarterly 36, no. 2 (1972): 176-187.
    42. “Media Framing in the Digital Age.” COMMUNICA: Journal of Communication 2, no. 1 (2025): 1-20.
    43. “Paradigm of Propaganda.” International Letters of Social and Humanistic Sciences 28 (2014): 80-95.
    44. Pedrini, Pier Paolo. Propaganda, Persuasion and the Great War. London: Routledge, 2017.
    45. Pratkanis, Anthony, și Elliot Aronson. Age of Propaganda: The Everyday Use and Abuse of Persuasion. Revised ed. New York: W.H. Freeman, 2001.
    46. “PropaInsight Framework: Multimodal Detection of Propaganda.” arXiv, 2024.
    47. Rashkin, Hannah, et al. “Fine-Grained Analysis of Propaganda in News Articles.” Proceedings of EMNLP, 2019: 5636-5646.
    48. Scheufele, Dietram A. “Framing as a Theory of Media Effects.” Journal of Communication 49, no. 1 (1999): 103-122.
    49. Shah, Dhavan V., et al. “News Framing and Cueing of Issue Regimes.” Public Opinion Quarterly 66, no. 3 (2002): 339-370.
    50. Tuchman, Gaye. Making News: A Study in the Construction of Reality. New York: Free Press, 1978.
    51. “Disinformation and Strategic Frames: Introducing the Concept of a Strategic Epistemology Towards Media.” Media, Culture & Society 46, no. 8 (2024): 1691-1709.
    52. “Misinformation, Disinformation, and Fake News: Lessons from an Interdisciplinary, Systematic Literature Review.” Communication & Society 37, no. 2 (2024): 185-210.
    53. “Fake News and Information Warfare: An Examination of the Political and Psychological Processes from the Digital Sphere to the Real World.” Academia.edu, 2018.
    54. “Countering AI-generated Misinformation with Pre-emptive Strategies: A Meta-Analysis.” Nature Human Behaviour 9 (2025): 125-142.
    55. “Meta-Analysis of Media Literacy Interventions.” Journal of Communication 73, no. 4 (2023): 375-398.
    56. “Research on Disinformation in Academic Studies: Perspectives through a Bibliometric Analysis.” Publications 12, no. 2 (2024): 14.
    57. “Algorithmic Manipulation and Information Science: Media Theories and Cognitive Warfare in Strategic Communication.” Media & Jornalismo 25, no. 46 (2025): 13-32.
    58. “A Cross-Domain Study of the Use of Persuasion Techniques in Online Disinformation.” arXiv, 2024.
    59. “Persuasive Technology and Computational Manipulation: Hypernudging out of Mental Self-determination.” Frontiers in Artificial Intelligence 6 (2023): 1216340.
    60. “Media Manipulation and Disinformation Online: Case Studies.” Data & Society Research Institute, 2017.
    61. “Measuring the Evolution of a Scientific Field through Citation Frames.” ACM Transactions on Information Systems 36, no. 4 (2018): 1-36.
    62. “Algorithmic Amplification and Cascade Dynamics on Social Media.” Nature Communications 10 (2019): 5738.
    63. “AI and Cyber-Enabled Threats to Democracy through Information Manipulation.” European Scientific Journal 21, no. 4 (2025): 56-78.
    64. “Deceptive AI-Generated Content and Detection Challenges.” arXiv, 2024.
    65. “Social Media Misinformation and Fake News: A Consumer Behaviour Perspective.” PhD Thesis, University of Portsmouth, 2024.
    66. “The Automated Systematic Search Deduplicator (ASySD): Tool to Remove Duplicate Citations.” bioRxiv, 2021.
    67. “Algorithmic Manipulation: Techniques and Implications.” arXiv, 2023.
    68. “Confronting Digital Challenges With Cognitive Tools: The Inoculation Approach.” Perspectives on Psychological Science 15, no. 6 (2020): 1531-1552.
    69. “AI-Generated Misinformation: A Case Study on Emerging Challenges.” SAGE Open 15, no. 1 (2025).
    70. “Predicting User Engagement in Health Misinformation on Social Media.” Journal of Medical Internet Research 27, no. 1 (2025): e65631.
    71. “Algorithmic Governmentality and Neurobiological Imaginaries.” Theory, Culture & Society 41, no. 3 (2024): 89-112.
    72. “The Biopolitics of Algorithmic Control in Platform Societies.” New Media & Society 24, no. 8 (2022): 1866-1885.
    73. “Hypernudging out of Mental Self-Determination: Persuasive Technology and Computational Manipulation.” Frontiers in Artificial Intelligence 6 (2023): 1216340.
    74. “Media Theories and Strategic Cognitive Warfare in Information Operations.” Media & Jornalismo 25, no. 46 (2025): 13-32.
    75. Lazer, David M.J., et al. “Algorithmic Amplification, Filter Bubbles, and Political Polarization.” Science 374, no. 6565 (2021): 311-313.
    76. “The Ethics of AI in Information Warfare: Deepfakes and Democratic Disruption.” IEEE Security & Privacy 22, no. 1 (2024): 34-43.
    77. “Detection of Deepfakes: A Systematic Review and Meta-Analysis.” Computers & Security 135 (2023): 103498.
    78. “The Impact of Recommendation Algorithms on Online Polarization: Experimental Evidence.” Nature Human Behaviour 7 (2023): 1345-1360.
    79. “Limits of Human Performance in Detecting Deepfake Videos.” Frontiers in Psychology 15 (2024): 1298468.
    80. “Detecting Misinformation Cascades in Social Networks.” arXiv, 2019.
    81. “Machine Learning Approaches for Fake News Detection: A Comprehensive Survey.” arXiv, 2024.
    82. “Media Manipulation Tactics and Soft Power Techniques in International Relations.” Critical Society Studies 1, no. 1 (2025): 36-58.
    83. “The Role of Social Media Algorithms in Fake News Dissemination.” Social Media + Society 9, no. 2 (2023).
    84. “Algorithmic Game Theory and Strategic Information Spread.” arXiv, 2024.
    85. “Understanding Digital Misinformation: Prevalence, Detection, and Intervention Strategies.” PLOS ONE 19, no. 2 (2024): e0284962.
    86. Goel, Sharad, et al. “Network Models of Misinformation Propagation.” Physical Review E 106, no. 4 (2022): 044308.
    87. “Social Network Analysis for Misinformation Control: Theory and Practice.” Journal of Broadcasting & Electronic Media 65, no. 2 (2021): 240-261.
    88. “Psychological Interventions Countering Misinformation in Social Media: A Scoping Review.” BMC Public Health 23, no. 1 (2023): 119.
    89. “The Persuasive Effects of Social Cues and Source Effects on Misinformation Susceptibility.” Scientific Reports 14 (2024): 3642.
    90. “Thinking Clearly About Misinformation: The Challenges Ahead.” Psychological Science in the Public Interest 25, no. 1 (2024): 1-78.
    91. “Simulacra and Simulation in Social Media: Baudrillard and the Age of Postmodern Hyperreality.” Journal of Consumer Culture 21, no. 3 (2021): 501-520.
    92. Lewandowsky, Stephan, et al. “The Psychological Drivers of Misinformation Belief and Its Resistance to Correction.” Nature Reviews Psychology 1, no. 1 (2022): 13-29.
    93. “The Truth in Fake News: How Disinformation Laws Are Reframing the Concepts of Truth and Accuracy on Digital Platforms.” European Competition Law Review 43, no. 5 (2022): 203-214.
    94. “Simulacra and Simulation in Social Media: Postmodern Hyperreality.” Journal of Consumer Culture 21, no. 3 (2021): 501-520.
    95. “Narratives at Conflict: Computational Analysis of News Framing in Multilingual Disinformation Campaigns.” arXiv, 2024.
    96. “Cognitive Marginality: A Framework For Targeted Manipulation in Information Warfare.” Academic Conferences International, 2025.
    97. “Russian Influence Operations as a Tool of Cognitive Warfare in German Elections.” Defence Science Review 5, no. 1 (2025): 78-95.
    98. “Psychology of Media Manipulation: Mechanisms and Countermeasures.” ShodhKosh: Journal of Visual and Performing Arts 5, no. 2 (2024): 1-18.
    99. “Boyd’s OODA Loop in Strategic Decision-Making and Cognitive Warfare.” Central European Journal of Security Policy 19, no. 1 (2025): 86-102.
    100. “The Illusory Truth Effect: A Meta-Analysis of Contributing Factors.” Psychological Science 35, no. 11 (2024): 1176-1190.
    101. “Cognitive Warfare and Information Manipulation: Contemporary Threats to Democracy.” Semantic Scholar Database, 2024.
    102. “OODA Loop Dynamics in Cognitive Warfare Operations.” Defence Studies 24, no. 3 (2024): 342-365.
    103. “Affective Polarization and Emotional Distortions on Social Media Platforms.” Royal Institute of Philosophy Supplements 94 (2024): 139-164.
    104. “Representation and Reality in Media Studies: Epistemological Foundations.” Communication Theory 34, no. 2 (2024): 156-178.
    105. “Deepfake: Manipulativní Technika v Informačních Operacích.” Vojenské rozhledy 33, no. 2 (2024): 45-61.
    106. “Digital Emotion Contagion and Social Media Psychology: Mechanisms and Consequences.” Graduate Program in International Studies Theses, Old Dominion University, 2023.
    107. “Algorithmic Systems in Information Warfare: Technical and Ethical Dimensions.” Information Warfare Journal 23, no. 4 (2024): 67-89.
    108. “Cognitive Warfare Strategic Frameworks: Russian and Western Approaches.” Vlast (Power) Journal 32, no. 1 (2024): 124-141.
    109. “Persuasive Technology and Computational Manipulation: Hypernudging out of Mental Self-determination.” Frontiers in Artificial Intelligence 10 (2023): 1216340.
    110. “Persuasive Technology Framework for Behavioral Change.” Frontiers in Artificial Intelligence 6 (2023): 1089696.
    111. “Propaganda Analysis Framework: Computational Approaches.” International Letters of Social and Humanistic Sciences 40 (2015): 41-50.
    112. “Computational Propaganda Detection Using Machine Learning.” arXiv, 2024.
    113. “Information Warfare in Digital Age: Strategies and Countermeasures.” Journal of Information Warfare 22, no. 2 (2023): 12-34.
    114. “Cognitive Warfare: The New Battlefield Exploiting Our Brains.” Polytechnique Insights, 2024.
    115. “Cognitive Warfare: Securing Hearts and Minds.” InfoLab Research, University of Ottawa, 2022.
    116. “Media Framing and Cognitive Bias: Psychological Mechanisms.” Frontiers in Psychology 12 (2021): 584689.
    117. “Media Framing in Latin America: Trends and Patterns.” Revista Latina de Comunicación Social 82 (2024): 1-28.
    118. “Social Media and Political Polarization: Global Perspectives.” Social Network Analysis and Mining 14 (2024): 49.
    119. “Misinformation Dynamics on Social Platforms: A Comprehensive Analysis.” Social Sciences 13, no. 8 (2024): 418.
    120. “Digital Disinformation and Social Networks: Mechanisms of Spread.” SSRN Electronic Journal, 2023.
    121. “Computational Detection of Misinformation: Methods and Challenges.” ACM Digital Library, 2024.
    122. “Algorithmic Amplification of Misinformation on Social Media Platforms.” Social Media + Society 9, no. 4 (2023).
    123. “Information Cascades on Social Media: Models and Empirical Evidence.” PLOS ONE 19, no. 5 (2024): e0303183.
    124. Pennycook, Gordon, și David G. Rand. “Fighting Misinformation on Social Media Using Crowdsourced Judgments of News Source Quality.” Proceedings of the National Academy of Sciences 116, no. 7 (2019): 2521-2526.
    125. Pennycook, Gordon, și David G. Rand. “Shifting Attention to Accuracy Can Reduce Misinformation Online.” Nature 592 (2021): 590-595.