inteligență artificială

  • Generative-AI în supravegherea hibridă om–mașină

    1. Introducere

    În ciuda complexității și amenințărilor reprezentate de agresiunile hibride potențate de AI, există motive de speranță: prin cooperarea strânsă între tehnologie și factorul uman, statele pot dezvolta sisteme de apărare mai adaptabile și mai etice. Supravegherea hibridă om–mașină pune laolaltă viteza și capacitatea de procesare a algoritmilor cu discernământul operatorilor umani, asigurând un echilibru care poate limita abuzurile și reduce daunele. Acest articol explică modul de funcționare al acestei arhitecturi, de ce menținerea „umanului în buclă” este esențială și cum poate contribui la consolidarea securității și responsabilității în operațiunile militare.

    2. Fundamentele supravegherii hibride om–mașină

    Supravegherea hibridă presupune colaborarea strânsă între sisteme automate (AI, senzori, platforme autonome) și operatori umani, fiecare cu roluri complementare. AI-ul procesează volume mari de date în timp real, identifică anomalii sau posibile ținte și propune opțiuni de acțiune. Decizia finală, în special pentru atacuri sau operațiuni cu impact major, aparține însă operatorului uman, care validează sau respinge recomandările sistemului.

    3. Modele de integrare

    • In the loop: operatorul aprobă fiecare acțiune propusă de sistem.
    • On the loop: operatorul supraveghează și poate opri automatizarea în caz de eroare.
    • Out of the loop: sistemul acționează autonom, fără intervenție umană.

    Doctrina occidentală menține deciziile letale sub controlul omului, pentru responsabilitate, reducerea erorilor și respectarea normelor etice.

    4. Avantaje

    • Viteză și volum: AI-ul analizează rapid cantități uriașe de informații, scurtând ciclul OODA (Observe, Orient, Decide, Act) și oferind opțiuni în timp real.
    • Reducerea riscului: sarcinile periculoase (recunoaștere, evacuare sub foc) pot fi preluate de mașini, protejând personalul uman.
    • Sprijin decizional: AI-ul sugerează variante optime, iar operatorul adaugă contextul moral și legal.

    5. Riscuri și limitări

    • Supraîncredere în algoritmi: acceptarea necritică a recomandărilor AI poate genera erori grave.
    • Atacuri și manipulare: AI-ul poate fi ținta atacurilor cibernetice, „data poisoning” sau erori de antrenament, ceea ce impune validare umană constantă.
    • Ambiguitate decizională: situațiile complexe necesită discernământ uman, pe care AI-ul nu-l poate substitui complet.

    6. Exemple și aplicații

    • Programul Maven (SUA): AI-ul analizează imagini satelitare și propune ținte, dar autorizarea atacului revine operatorului uman.
    • Sisteme de apărare antiaeriană: AI-ul prioritizează amenințările; lansarea interceptoarelor necesită confirmare umană.
    • Operațiuni cibernetice: AI-ul detectează breșe și propune răspunsuri, însă deciziile majore (deconectarea infrastructurii) sunt validate de specialiști.

    7. Concluzie

    Supravegherea hibridă om–mașină, cu „umanul în buclă” (in the loop), echilibrează eficiența și viteza AI-ului cu responsabilitatea și discernământul uman. Pentru România și aliații săi, acest model este vital pentru credibilitatea, securitatea și legitimitatea deciziilor militare într-un mediu informațional tot mai automatizat.

  • Propaganda rusă pe rețele sociale: microtargeting-ul AI

    1. Introducere

    Strategiile de microtargeting folosite în propaganda rusă au evoluat odată cu adoptarea instrumentelor AI, permițând difuzarea de mesaje precise pe platformele sociale. Pe Facebook și Telegram, campaniile pro-Kremlin utilizează algoritmi de look-alike audiences, analiză comportamentală și profilare psihologică pentru a crea audiențe personalizate și a influența opiniile într-un mod aparent organic. Această prezentare analizează tacticile concrete folosite în România și modalitățile prin care rețele precum AdNow și Portal Kombat exploatează platformele sociale pentru a răspândi narațiuni coordonate.

    2. Mecanismele AI de microtargeting

    Pentru a înțelege amploarea tacticilor, examinăm patru componente-cheie utilizate de campaniile pro-Kremlin:

    2.1. Look-alike audiences și profilare psihologică

    Platformele Meta grupează utilizatorii după comportamente, interese și interacțiuni. Prin „look-alike audiences”, operatorii definesc un segment inițial (de exemplu, susținători ai anumitor influenceri conspiraționiști) și extind audiența către persoane cu caracteristici și tipare emoționale similare: anxioși față de globalizare, nostalgici după valorile tradiționale, sau frustrați de instituțiile europene.

    2.2. Targeting temporal și geografic

    AI-ul optimizează momentul și locul difuzării mesajelor. În România, propagandiștii au intensificat postările în orele de seară, când engagement-ul este maxim, au legat mesajele de subiecte precum inflația sau scandalurile politice și au vizat județe cu istoric de scepticism față de UE.

    2.3. Bot-uri coordonate pe Telegram

    Telegram oferă un mediu mai puțin reglementat pentru testarea și rafinarea mesajelor. Un studiu OpenMinds arată că 24% dintre canalele românești (48 din 202) distribuie sistematic conținut pro-Kremlin, cu peste 4.000 de repostări unice din surse rusești din 2022. Documente CSAT indică folosirea a 25.000 de conturi automate care repostau simultan mesaje identice, ajustând tonul pentru grupuri diferite: formal pentru intelectuali, emoțional pentru comunități religioase și agresiv pentru grupuri radicalizate.

    2.4. Portal Kombat și rețeaua AdNow

    Operațiunea Portal Kombat, semnalată de Viginum, a coordonat mesaje false în 19 țări prin site-uri clone și canale Telegram. În România, AdNow—o companie fondată de veterani ai campaniilor lui Putin—a finanțat influenceri conspiraționiști și pagini de extremă-dreaptă, transferând milioane de euro într-un circuit integrat de finanțare și diseminare.

    3. Tactici specifice pe Facebook

    Raportul Reset Tech și Check First arată că, în campania prezidențială din 2024, o rețea de 25 de pagini de Facebook a difuzat peste 4.100 de reclame politice, investind aproximativ 265.000 EUR pentru a promova mesaje anti-UE și a discredita liderii pro-europeni. Mai departe, propagandiștii au preluat grupuri aparent inofensive—de rețete, hobby-uri sau parenting—și, odată câștigată încrederea membrilor, au introdus treptat conținut politic, determinând creșterea semnificativă a interacțiunii utilizatorilor (like-uri, comentarii, distribuiri). În plus, postările controversate au fost programate strategic în orele de maximă audiență pentru a declanșa amplificarea algoritmică, iar asocierea mesajelor cu subiecte de actualitate (inflaţie, scandaluri politice) le-a asigurat vizibilitate sporită.

    4. Contramăsuri și detecție

    Pentru a identifica microtargeting-ul AI, utilizatorii pot observa:
    – repetarea mesajelor identice pe conturi diferite;
    – reclame cu sponsorizări oculte sau finanțare nedeclarată;
    – conținut emoțional intens fără sursă clară;
    – schimbări bruște de ton sau stil în grupuri aparent nepolitizate.
    Extensii și aplicații precum InVID sau NewsGuard semnalează conținut generat automat și pot bloca reclamele suspecte.

    5. Concluzie

    Microtargeting-ul AI în propaganda rusă pe Facebook reprezintă o amenințare persistentă și sofisticată, care nu se limitează la influențarea alegerilor, ci vizează remodelarea pe termen lung a opiniilor și a coeziunii sociale din România. Înțelegerea acestor tactici este esențială pentru dezvoltarea rezilienței cetățenilor, pentru consolidarea alfabetizării media și pentru apărarea spațiului informațional în fața unor operațiuni care evoluează continuu.

  • Inteligența Artificială în războiul hibrid și informațional: mecanisme, studii de caz și perspective

    1. Introducere

    Între 2025 și 2030, confluența dintre instrumentele hibride și capacitățile avansate ale inteligenței artificiale a transformat spațiul informațional într-o arenă dominată de campanii automate de dezinformare și manipulare psihologică. Generative AI accelerează producția de texte, imagini și clipuri video false, comprimă ciclurile decizionale și exploatează tiparele cognitive ale publicului, punând la încercare reziliența democrațiilor. Acest articol, bazat exclusiv pe rapoarte și studii occidentale de referință, analizează în profunzime mecanismele-cheie ale noii „bătălii a minții”, patru studii de caz globale și contramăsurile strategice adoptate de UE și SUA pentru protejarea securității informaționale.

    2. Mecanisme și tehnologii-cheie

    Tehnologiile Generative AI – de la modele de limbaj mari (LLM) la rețele adversariale generative – au adus dezinformarea la nivel industrial, permițând actorilor statali și ne-statali să lanseze campanii adaptative, ajustate dinamic prin A/B testing și metrici cognitive. Sistemele pot rafina tonalitatea și mesajul în timp real, maximizând impactul emoțional asupra micro-segmentelor de audiență. Rețelele de boți și modelele de limbaj dispersează simultan mesaje manipulate pe platforme multiple, generând impresia unui val de opinie contrafăcută și polarizând discuțiile. În paralel, algoritmii generează deepfake-uri cu fidelitate ridicată – fețe și voci false care induc teamă și suspiciune – provocând scăderi semnificative în încrederea în mass-media tradițională.

    3. Studii de caz globale

    3.1. Rusia – Firehose of Falsehood

    Modelul Firehose of Falsehood urmărește inundarea spațiului informațional cu volume masive de mesaje inconsistente, dar persistent distribuite de boți și conturi coordonate. Campaniile din Ucraina și Europa de Est au demonstrat cum Kremlinul poate eroda gradual încrederea în surse oficiale, generând oboseală cognitivă și cinism.

    3.2. China – Warfare by Narrative

    Beijingul combină mesaje pozitive despre inițiative globale precum „Drumurile Mătăsii” cu narațiuni subtile de legitimizare a influenței sale în Africa și Balcani. Prin campanii multilingvistice calibrate cultural și utilizarea influencerilor acreditați de stat, rata de acceptare a narativelor a crescut semnificativ în regiunile vizate.

    3.3. Iran – campanii regionale

    Operațiunile iraniene exploatează tensiunile etnice și religioase din Orientul Mijlociu și diaspora, folosind platforme alternative precum Telegram și versiuni chinezești ale TikTok-ului. Mesajele sectare, direcționate prin micro-targetare, au amplificat diviziunile interne și au subminat coeziunea socială.

    3.4. Occident – răspunsuri strategice

    Uniunea Europeană a implementat un sistem de alertă rapidă anti-dezinformare, conectând Comisia, instituțiile naționale și platformele sociale prin API-uri pentru detectarea automată a narațiunilor false. Statele Unite colaborează cu organizații de referință și firme tehnologice pentru dezvoltarea de prototipuri de detecție bazate pe semnături cognitive și pattern matching, obținând performanțe ridicate în testele pilot.

    4. Implicații strategice și contramăsuri

    Cooperarea transatlantică se bazează pe principii de utilizare responsabilă a AI, armonizând standarde etice și asigurând interoperabilitate între sistemele defensive. Rețele instituționale de fact-checking asistat de AI folosesc modele de procesare a limbajului natural pentru semnalarea automată a conținutului suspect, iar programe de educație media derulate în școli și universități au demonstrat îmbunătățiri semnificative în identificarea deepfake-urilor și a mesajelor manipulate.

    5. Concluzii și direcții viitoare

    Noua eră a conflictelor hibride asistate de AI se conturează ca o cursă informațională cognitivă în care viteza și adaptabilitatea mesajelor vor dicta succesul operațiunilor. Pentru perioada 2025–2030, este esențială extinderea colaborării internaționale prin programe comune de cercetare și armonizarea standardelor etice, investițiile în testare și validare a sistemelor AI în medii simulate operaționale și continuarea dezvoltării de metrici cognitive capabile să măsoare reziliența publicului și impactul campaniilor hibride.

  • Provocări și strategii în era AI: șomajul, venitul de bază și confruntarea informațională

    1. Introducere

    Pe măsură ce automatizarea și inteligența artificială avansează, pierderea locurilor de muncă devine o amenințare reală: până în 2030, milioane de posturi în sectoare precum producția, activitățile administrative și transporturile vor dispărea. În acest context, propunerile pentru un venit de bază universal (UBI) se intersectează cu diferite curente ideologice și devin mize în războiul informațional și în războiul hibrid.

    2. Impactul automatizării și necesitatea unei soluții

    Estimările arată că între 400 și 800 de milioane de locuri de muncă vor fi afectate de automatizare în următorul deceniu, cu aproximativ 25% din forța de muncă din economiile avansate necesitând recalificare. Sectoarele cel mai vulnerabile includ producția, serviciile administrative și transporturile. Această disrupție masivă creează presiuni pentru implementarea unor mecanisme de protecție socială inovatoare, printre care venitul de bază universal ocupă o poziție centrală în dezbaterile contemporane.

    3. Venitul de bază universal: concept și susținători

    UBI presupune acordarea unei sume fixe, regulate și necondiționate fiecărui adult, independent de statutul ocupațional sau nivelul veniturilor. Printre susținătorii de marcă se numără Andrew Yang cu propunerea “Freedom Dividend”, economiști laureați Nobel precum Esther Duflo și Abhijit Banerjee, antreprenori tehnologici ca Elon Musk și Mark Zuckerberg (precum și Papa Francisc), care consideră UBI un act de justiție socială. Această diversitate de susținători reflectă complexitatea conceptului și potențialul său de a transcende granițele ideologice tradiționale.

    4. UBI în spectrul ideologic contemporan

    4.1. Perspectiva libertariană și conservatoare

    Economiștii precum Milton Friedman au susținut “impozit negativ pe venit” ca alternativă la sistemele complexe de asistență socială. Această abordare promovează simplificarea birocrației și menținerea stimulentelor de muncă. Totuși, organizații conservatoare precum Heritage Foundation și Cato Institute critică UBI pentru costurile prohibitive și potențialele efecte asupra productivității economice.

    4.2. Curentele de stânga și UBI

    Cercetările academice identifică trei tipuri de preocupări anticapitaliste în rândul stângii: “Labourist Left” se teme de exploatare, “Libertarian Left” de represiune, iar “Social Investment Left” de ineficiențe. Paradoxal, studiile arată că preocupările legate de exploatare cresc susținerea pentru UBI, în timp ce temerile de represiune o reduc.

    5. Alternative la venitul de bază universal

    5.1. Universal Basic Services (UBS)

    Anna Coote și New Economics Foundation promovează accesul gratuit la servicii esențiale (educație, sănătate, transport, locuințe) în locul transferurilor în numerar. Această abordare este susținută de sindicate și organizații precum Public Services International, care văd UBI ca o amenințare la adresa drepturilor lucrătorilor.

    5.2. Garanția locului de muncă

    Pavlina Tcherneva și susținătorii Modern Monetary Theory propun programe de angajare garantată de stat la un salariu minim, considerate mai eficiente în menținerea demnității prin muncă și în dezvoltarea infrastructurii publice. Bernie SandersCory Booker și Kirsten Gillibrand sunt susținători politici activi ai acestei alternative.

    5.3. “Earned Income Tax Credit” și “Negative Income Tax” (creditul fiscal pentru veniturile obținute din muncă și impozitul negativ pe venit)

    Aceste mecanisme țintite pe categorii specifice de venituri mici beneficiază de susținerea unei majorități covârșitoare de economiști și politicieni din ambele tabere politice americane. Charles Murray de la American Enterprise Institute susține eliminarea tuturor programelor sociale în favoarea unui UBI simplificat.

    6. UBI în războiul informațional și campaniile de dezinformare

    6.1. Teorii conspiraționiste și manipulare narativă

    În spațiul informațional românesc și canadian, UBI a devenit ținta teoriilor conspiraționiste care îl prezintă ca “următorul pas către înrobirea omenirii” de către “elitele globale”. Senatorii canadieni raportează primirea a mii de mesaje care descriu UBI ca o “conspirație a ordinii mondiale noi” sau un sistem de supraveghere statală.

    6.2. Violența simbolică a elitelor tehnologice

    Cercetători precum Pierre Bourdieu identifică promovarea UBI de către magnații AI ca o formă de “violență simbolică”, menită să mențină ierarhiile existente sub aparența binefacerii universale. Această narațiune permite elitelor să evite redistribuirea reală a puterii, oferind în schimb o “plasă de siguranță” minimă.

    6.3. Instrumentalizarea în războiul hibrid

    Actorii statali exploatează dezbaterile despre UBI pentru a adânci diviziunile interne în societățile țintă. Campaniile de dezinformare alternează între promisiuni utopice și avertismente apocaliptice, erodând coeziunea civică și încrederea în instituții.

    7. Figuri istorice și influența lor continuă

    Thomas Paine este considerat unul dintre primii teoreticieni ai UBI prin propunerea sa din 1797 pentru o “chirie de teren” redistribuită tuturor cetățenilor. Martin Luther King Jr. a susținut în 1967 conceptul de “venit garantat” în cartea sa “Where Do We Go From Here?”, declarând că soluția la sărăcie este să o abolim direct printr-un venit garantat. Aceste figuri istorice oferă legitimitate intelectuală conceptului în dezbaterile contemporane.

    8. Finanțarea inovatoare: taxa pe carbon și tehnologia blockchain

    Studiile arată că o taxă globală pe emisiile de carbon de 70 USD/tonă ar putea genera anual peste 2,3 trilioane USD, suficiente pentru finanțarea unui UBI planetar și simultan pentru reducerea semnificativă a gazelor cu efect de seră. În paralel, proiecte precum GoodDollar demonstrează că tehnologia blockchain permite distribuția transparentă și eficientă a plăților UBI prin contracte inteligente, reducând costurile administrative și facilitând accesul global.

    9. Concluzii și implicații strategice

    Dezbaterea despre venitul de bază universal depășește dimensiunea economică, devenind un front în confruntarea informațională globală. Pentru România și alte state, implementarea unor politici sociale inovatoare necesită strategii robuste de comunicare și contracararea dezinformării. UBI poate servi ca instrument de tranziție echitabilă către economia AI, dar doar dacă este însoțit de reforme structurale care abordează cauzele profunde ale inegalităților, nu doar simptomele acestora.

    Succesul oricărui program de venit de bază depinde de capacitatea de a naviga între promisiunile genuine de progres social și riscurile manipulării informaționale, asigurând că beneficiile tehnologiei servesc interesul colectiv, nu doar al elitelor care o controlează. Logica cursivă a argumentelor demonstrează că UBI nu este doar o măsură economică, ci un instrument complex de politică socială care necesită abordare holistică pentru a fi implementat cu succes în contextul provocărilor epocii AI.