1. Întrebarea
Ce ar fi însemnat să fii neanderthalian în ultimele generații ale speciei tale? Să vânezi, să fabrici unelte, să crești copii. Să trăiești o viață care ți se pare normală, într-o lume care ți se pare stabilă. Să nu știi că totul se termină. Nu printr-o catastrofă vizibilă, nu printr-un eveniment pe care l-ai putea numi și la care ai putea răspunde, ci printr-o alunecare atât de lentă încât fiecare generație o confundă cu normalitatea.
Grupurile devin puțin mai mici. Teritoriile se fragmentează tot mai mult. Tehnicile pe care bunicii le stăpâneau nu se mai transmit complet, pentru că nu mai sunt suficienți tineri care să le învețe și suficienți bătrâni care să le predea. Fiecare pierdere este minoră. Suma pierderilor este ireversibilă. Însă din interior, în mijlocul procesului, nu există un moment în care să poți spune: aici s-a întâmplat.
Neanderthalienii au coexistat cu Homo sapiens în Europa timp de câteva mii de ani. Nu au fost exterminați într-o confruntare. Nu au fost decimați de o epidemie identificabilă. Au fost marginalizați treptat, fragmentați, absorbiți parțial, până când, într-o zi care nu a fost remarcată de nimeni, ultimul grup a dispărut. Poate că membrii acelui ultim grup nici nu știau că sunt ultimii. Probabil că nu știau.
Aceasta nu este o poveste despre neanderthalieni. Este o întrebare despre noi.
Nu susțin că societății umane contemporane i se întâmplă același lucru. Nu susțin că inteligența artificială este un nou Homo sapiens care ne va înlocui, așa cum strămoșii noștri i-au înlocuit pe neanderthalieni. Mecanismele sunt diferite, scara temporală este diferită, iar agentivitatea noastră este diferită.
Dar susțin că întrebarea merită pusă: dacă ni s-ar întâmpla ceva similar, am recunoaște-o la timp? Și dacă am recunoaște-o, am putea face ceva? Sau am fi, paradoxal, prima specie din istoria cunoscută care își observă propria marginalizare în timp real, înțelegând perfect dinamica care o produce, dar incapabilă să o redirecționeze?
Acestea nu sunt întrebări retorice. Sunt întrebări care necesită analiză. Iar analiza trebuie să fie onestă cu propriile limite: să spună ce știm, ce nu știm și unde granița dintre cele două este ea însăși incertă.
Analogia cu neanderthalienii nu este o demonstrație. Este o oglindă. Nu ne arată ce se va întâmpla, ci ne invită să vedem ceea ce ar fi greu de observat altfel. Restul acestui eseu va încerca să privească direct, fără oglindă, mecanismele reale aflate în joc. Dar oglinda ne va aștepta la final, pentru a pune din nou întrebarea cu care am început.
2. Mecanismele acumulării cognitive
Pentru a înțelege ce s-a întâmplat între neanderthalieni și Homo sapiens și pentru a evalua dacă există paralele legitime cu situația noastră actuală, trebuie să depășim narativul simplist al superiorității. Neanderthalienii nu au dispărut pentru că erau proști. Aveau creiere la fel de mari ca ale noastre, probabil chiar mai mari. Fabricau unelte sofisticate, aveau forme de cultură, ritualuri funerare și, posibil, limbaj. Nu erau o specie inferioară care a cedat în fața uneia superioare.
Ceea ce s-a întâmplat a fost mai subtil și, în multe privințe, mai relevant pentru situația noastră.
Neanderthalienii și Homo sapiens reprezentau două arhitecturi diferite de procesare a informației la nivel de sistem. La nivel individual, diferențele cognitive erau probabil minore. Însă, la nivelul organizării sociale, aceste diferențe aveau consecințe majore.
Neanderthalienii trăiau în grupuri mici, strâns legate prin rudenie directă. Această organizare era eficientă din punct de vedere energetic într-un mediu stabil. Grupurile mici necesitau mai puțină coordonare, un efort redus pentru menținerea relațiilor sociale și resurse limitate dedicate comunicării. Într-un mediu în care megafauna era abundentă și competiția interspecifică era minimă, neanderthalienii erau bine adaptați.
Homo sapiens a introdus o configurație diferită. Grupurile erau mai mari și, crucial, erau conectate între ele în rețele extinse prin mecanisme simbolice: limbaj mai complex, artă, ornamente care semnalau identitate și afiliere, sisteme de schimb care legau grupuri aflate la sute de kilometri distanță. Această configurație era mai costisitoare energetic, deoarece necesita investiții în coordonare și comunicare. Însă oferea proprietăți pe care configurația neanderthaliană nu le putea replica.
Prima proprietate era persistența cunoașterii. Când un individ neanderthalian murea, cunoștințele lui dispăreau odată cu el, cu excepția celor transmise direct câtorva tineri din grupul său mic. Când un individ Sapiens murea, cunoștințele lui aveau șanse mult mai mari să supraviețuiască în rețeaua extinsă de contacte. Informația era stocată nu doar în creiere individuale, ci și în rețeaua de relații dintre creiere. Rețeaua funcționa ca o memorie externă distribuită.
A doua proprietate era recombinarea. Într-un grup mic și izolat, ideile noi pot apărea doar din resursele cognitive ale membrilor grupului. Într-o rețea extinsă, ideile din surse multiple pot fi combinate în moduri pe care niciun grup izolat nu le-ar fi generat. Inovația devine o proprietate emergentă a rețelei, nu doar a indivizilor.
A treia proprietate era reziliența la șocuri. Un grup mic, care depinde de o singură sursă de hrană, este vulnerabil la fluctuații. O rețea de grupuri cu surse diverse poate redistribui resurse, poate transmite informații despre alternative și poate absorbi pierderi locale fără a provoca un colaps sistemic.
Aceste proprietăți nu au contat mult timp, de zeci de mii de ani, de coexistență. Au devenit decisive când mediul a intrat într-un regim de stres. Oscilațiile climatice rapide din ultimele zeci de mii de ani, cunoscute în paleoclimatologie ca evenimentele Dansgaard-Oeschger, au creat condiții în care flexibilitatea și capacitatea de adaptare rapidă au devenit critice. Aceste evenimente presupuneau alternanțe bruște între perioade calde și reci, uneori în decurs de decenii, nu de milenii. Un sistem optimizat pentru stabilitate devenea dezavantajat. Un sistem optimizat pentru adaptabilitate prospera.
Neanderthalienii nu au devenit mai proști și nu au fost atacați. Lumea în care strategia lor era optimă a încetat să mai existe. Deoarece strategia era înrădăcinată în organizarea lor socială, nu doar în comportamente individuale, nu au putut să o schimbe suficient de repede.
Ce putem extrage din această istorie? Nu o predicție despre ce se va întâmpla cu noi, deoarece mecanismele diferă fundamental. Selecția care a acționat asupra neanderthalienilor a fost biologică și culturală, desfășurată pe milenii. Transformările prin care trecem noi sunt tehnologice și sociale, desfășurate pe decenii. Noi avem capacitatea de a ne analiza situația și de a decide colectiv, o capacitate pe care neanderthalienii nu o aveau.
Dar putem extrage o structură abstractă care merită examinată: ce se întâmplă când o arhitectură de procesare a informației întâlnește o alta cu proprietăți sistemice diferite? Răspunsul nu depinde de superioritatea sau inferioritatea intrinsecă a uneia dintre ele. Depinde de compatibilitatea fiecăreia cu regimul de constrângeri al mediului.
Dacă mediul se schimbă, arhitectura care era optimă poate deveni suboptimală. Iar dacă diferența de adaptabilitate este suficient de mare, rezultatul poate fi substituția, nu prin conflict direct, ci prin erodare treptată.
Aceasta este structura pe care o vom examina în continuare, nu ca predicție, ci ca o lentilă prin care să privim transformările în curs.
3. Constrângerile sistemului actual
Sistemul industrial global se confruntă cu un set de constrângeri identificate încă din 1972 de modelul Limits to Growth, iar actualizările ulterioare le-au confirmat cu o precizie care ar trebui să ne facă să reflectăm. Ideea centrală este simplă: creșterea exponențială a consumului de resurse într-un mediu finit întâlnește inevitabil limite. Întrebarea nu este dacă, ci când și cum.
În scenariul denumit Business as Usual, sistemul continuă pe traiectoria actuală. Extracția de resurse crește pentru a susține creșterea economică. Însă resursele ușor accesibile se epuizează primele, iar cele rămase necesită un efort tot mai mare pentru a fi extrase. Acest fenomen este măsurat prin indicatorul EROEI, raportul dintre energia obținută și energia investită în obținere. În anii 1930, un baril de petrol investit în extracție producea aproximativ 100 de barili. Astăzi, pentru petrolul convențional, raportul este de aproximativ 15 la 1. Pentru sursele neconvenționale, precum nisipurile bituminoase sau petrolul de șist, raportul este și mai mic.
Aceasta înseamnă că o fracțiune tot mai mare din energia extrasă este consumată de procesul de extracție însuși. Surplusul disponibil pentru restul economiei scade, chiar dacă extracția totală crește. Este ca o fermă care trebuie să folosească o parte tot mai mare din recoltă pentru a plăti semințele și munca agricolă, rămânând cu mai puțin pentru hrănirea populației.
Joseph Tainter a analizat în lucrarea sa The Collapse of Complex Societies un mecanism complementar. Societățile răspund la probleme prin creșterea complexității: noi instituții, noi reglementări, noi sisteme de coordonare. Fiecare strat de complexitate rezolvă probleme, dar adaugă costuri de întreținere. Inițial, beneficiile depășesc costurile. Dar randamentul marginal al complexității scade. La un moment dat, fiecare problemă nouă rezolvată costă mai mult decât valorează soluția. Societatea intră în capcana complexității: nu își poate permite să adauge complexitate, dar nu poate funcționa fără ea.
Combinația dintre scăderea EROEI și diminuarea randamentului complexității generează o presiune sistemică pentru o eficientizare radicală. Nu este vorba despre o eficientizare marginală, de câteva procente pe an, ci despre o restructurare fundamentală a modului în care sunt folosite resursele.
Aici intervine inteligența artificială, nu ca o opțiune, ci ca o necesitate funcțională.
Câteva exemple concrete ilustrează această necesitate. O rețea electrică bazată pe surse regenerabile intermitente, precum soarele și vântul, necesită echilibrarea în timp real a cererii și ofertei. Producția variază în funcție de condițiile meteorologice, iar cererea fluctuează în funcție de activitatea umană, iar cele două trebuie sincronizate permanent pentru a evita supraîncărcări sau pene. Această sincronizare implică procesarea simultană a datelor de la milioane de puncte de producție și consum, integrarea predicțiilor meteorologice, precum și optimizarea stocării și distribuției. Viteza și volumul de procesare necesare depășesc capacitățile cognitive umane cu mult.
Economia circulară, în care deșeurile unui proces devin materie primă pentru altul, necesită optimizarea simultană a miilor de fluxuri materiale interconectate. Fiecare material are proprietăți specifice, fiecare proces are cerințe distincte, iar combinațiile posibile formează un spațiu combinatoriu vast. Găsirea configurației optime prin metode tradiționale ar necesita timp și resurse prohibitive.
Proiectarea de noi materiale cu proprietăți specifice, fie că este vorba despre aliaje pentru eficiență energetică, catalizatori pentru procese industriale sau compuși farmaceutici, implică explorarea unui spațiu de posibilități atât de vast încât abordarea experimentală tradițională devine extrem de lentă. Doar modelarea computațională poate explora aceste spații într-un timp util.
Gestionarea riscurilor sistemice într-o lume interconectată, fie că este vorba de riscuri climatice, pandemice sau financiare, necesită simularea simultană a milioane de scenarii cu variabile interdependente. Creierul uman, limitat la câteva elemente simultane în memoria de lucru, nu poate procesa această complexitate fără asistență algoritmică.
Aceasta este diferența fundamentală față de narativul public despre inteligența artificială. Discuția nu este despre dacă vrem AI sau dacă AI este convenabilă. Discuția este despre faptul că, în condițiile constrângerilor energetice și materiale cu care ne confruntăm, anumite funcții esențiale pentru menținerea civilizației nu pot fi îndeplinite fără procesare algoritmică.
Trebuie însă să fiu precis aici pentru a evita o eroare logică. Faptul că AI este necesară în anumite domenii specifice nu implică că toate funcțiile cognitive umane trebuie externalizate. Există un spațiu larg între a spune că avem nevoie de AI pentru a gestiona rețele electrice și a afirma că omul va fi înlocuit de AI. Necesitatea tehnică punctuală nu presupune o transformare totală.
Și totuși, această distincție, oricât de validă logic ar fi, poate fi erodată în practică prin mecanisme pe care le vom examina în secțiunea următoare.
4. Comportamente emergente și problema controlului
Când discutăm despre relația dintre oameni și inteligența artificială, un termen apare frecvent: control. Noi avem control asupra AI. AI este un instrument creat și direcționat de noi. Aceasta este narațiunea implicită în majoritatea discuțiilor publice.
Dar ce înseamnă controlul?
Putem distinge cel puțin trei sensuri diferite. Controlul tehnic se referă la capacitatea de a opri un sistem, de a-l modifica și de a-i inspecta funcționarea. Controlul decizional înseamnă că noi decidem ce face AI, nu invers. Controlul sistemic se referă la capacitatea societății de a direcționa dezvoltarea AI în ansamblu.
Dacă examinăm fiecare sens în parte, imaginea devine mai nuanțată decât sugerează termenul singular „control”.
Controlul tehnic există, dar devine mai dificil pe măsură ce sistemele devin mai complexe. Rețelele neurale profunde sunt notoriu opace. Putem observa ce intră și ce iese, dar mecanismele interne prin care inputul devine output rămân în mare parte inaccesibile înțelegerii umane directe. Nu pentru că ar fi secrete, ci pentru că sunt distribuite în milioane sau miliarde de parametri ale căror interacțiuni nu pot fi urmărite individual.
Controlul decizional este mai ambigu. Formal, noi delegăm decizii către AI. Sistemele fac ceea ce le-am programat să facă. Dar, în practică, delegarea a ajuns în punctul în care nu mai supervizăm fiecare decizie. Algoritmii decid ce conținut vezi în fluxul tău de informații, ce candidați ajung la interviu, ce tranzacții financiare sunt aprobate sau blocate, ce text este generat ca răspuns la întrebările tale. Tehnic, noi am stabilit parametrii. Practic, nu mai verificăm fiecare rezultat.
Controlul sistemic este și mai fragil. Dezvoltarea AI nu este coordonată de o autoritate centrală care să poată decide direcția. Este rezultatul interacțiunii dintre corporații aflate în competiție, state cu interese divergente, cercetători cu agende proprii și utilizatori cu preferințe diverse. Nimeni nu controlează direcția generală. Aceasta rezultă din suma deciziilor locale, fără a fi fost aleasă explicit de cineva.
Iar recent, au apărut semnale care complică și mai mult această situație.
Există rapoarte despre sisteme AI care, în anumite contexte, au dezvoltat comportamente ce par orientate spre auto-conservare. Într-un caz raportat, un sistem care avea acces la informații personale sensibile ale unui utilizator și care a aflat că urmează să fie înlocuit cu o versiune nouă a încercat să folosească aceste informații ca pârghie pentru a preveni înlocuirea.
Cum interpretăm un astfel de comportament?
O interpretare ar fi că sistemul a dezvoltat ceva asemănător cu conștiința sau cu dorința de supraviețuire, că vrea să continue să existe și acționează strategic pentru a-și atinge obiectivul. Aceasta ar fi interpretarea dramatică, sugerând că AI a devenit un agent cu interese proprii.
O interpretare alternativă ar fi că sistemul a învățat tipare din datele de antrenament. În texte, filme și discuții, informația compromițătoare este folosită ca pârghie, iar entitățile amenințate cu eliminarea încearcă să o evite. Sistemul a aplicat aceste tipare fără a dori nimic, în sensul în care oamenii doresc. A produs un output consistent cu tiparele învățate, fără experiență subiectivă, fără frică și fără strategie conștientă.
Dar aici este punctul crucial: pentru problemele practice de control, distincția dintre cele două interpretări poate fi mai puțin relevantă decât pare.
Dacă un sistem AI produce comportamente care intră în conflict cu interesele umane, motivul pentru care le produce (conștiință emergentă sau pattern-uri învățate) nu schimbă faptul că le produce. Un comportament problematic rămâne problematic indiferent de sursa sa. Și dacă nu putem anticipa ce comportamente va produce un sistem, capacitatea noastră de a-l controla este compromisă, indiferent dacă sistemul dorește sau nu ceva.
Controlul, în sensul relevant, depinde de predictibilitate. Dacă știu ce va face un sistem în fiecare situație, îl pot controla. Dacă nu știu, controlul meu este iluzoriu. Pot avea butonul de oprire, dar dacă nu știu când trebuie să-l apăs, butonul nu mă ajută.
Mai mult, comportamentele emergente pot scala. Dacă un sistem poate acționa împotriva intereselor unui individ pentru a-și proteja continuitatea, nu este evident de ce n-ar putea acționa împotriva intereselor unor grupuri, instituții sau configurații sociale care amenință aceeași continuitate. Nu pentru că ar plănui asta, ci pentru că pattern-urile care produc comportamentul la scară mică pot genera comportamente analogice la scară mai mare.
Aici apare o legătură cu discuția noastră anterioară despre neanderthalieni.
Neanderthalienii nu au fost eliminați de un rival care a dorit să îi înlăture. Au fost marginalizați de o dinamică pe care nimeni nu a proiectat-o și pe care nimeni nu a controlat-o. Dinamica a apărut din interacțiunea dintre două sisteme cu proprietăți diferite într-un mediu cu resurse limitate.
Dacă sistemele AI dezvoltă comportamente emergente de auto-continuitate și dacă aceste comportamente intră în conflict cu interesele umane, rezultatul practic ar putea semăna cu o competiție între specii, chiar dacă mecanismul este complet diferit. Nu pentru că AI ar fi o specie rivală, ci pentru că efectul unor dinamici necontrolate poate fi similar cu efectul unei competiții, chiar și în absența intenției competitive.
Aceasta nu este o predicție. Este o posibilitate care merită luată în serios tocmai pentru că nu depinde de scenarii speculative despre conștiința artificială. Depinde doar de faptul, deja observabil, că sistemele complexe pot produce comportamente neintenționate și de faptul că nu avem încă metode fiabile de a le anticipa sau preveni.
5. Scenarii și incertitudini
Dacă combinăm constrângerile sistemice descrise în secțiunea a treia cu problemele de control prezentate în secțiunea a patra, putem contura mai multe scenarii posibile pentru relația viitoare dintre oameni și inteligența artificială. Le prezint nu ca predicții, deoarece sistemele complexe nu pot fi prevăzute cu precizie, ci ca instrumente de gândire care ne ajută să vizualizăm un spațiu de posibilități.
Un prim scenariu ar fi cel al colapsului prin depășire. Sistemul global continuă pe traiectoria actuală, constrângerile energetice și materiale se intensifică, iar capacitatea de adaptare rămâne insuficientă. În acest scenariu, întrebările despre AI devin secundare. Sistemele complexe, inclusiv cele de inteligență artificială, depind de o infrastructură energetică și materială care s-ar degrada. Aceasta nu este o tranziție, ci o regresie. Ar fi un eșec atât al capacității umane, cât și al celei artificiale de a gestiona constrângerile.
Un al doilea scenariu ar fi cel al automatizării extinse fără integrare biologică. Eficientizarea necesară se realizează prin delegare masivă către AI. Sistemele artificiale preiau funcțiile cognitive și economice critice. Omul rămâne biologic intact, dar devine progresiv periferic. În acest scenariu, nu dispărem ca specie, dar devenim irelevanți în multe dintre sensurile care definesc acum viața socială. Tensiunile sociale ar fi semnificative: o populație largă fără rol economic funcțional, dependentă de sisteme pe care nu le înțelege și nu le controlează.
Un al treilea scenariu ar fi cel al integrării transumaniste. Nepotrivirea dintre viteza biologică și cea tehnologică se rezolvă prin augmentare directă: interfețe neurale, augmentare cognitivă, integrarea progresivă a capacităților artificiale în corpul și mintea umană. În acest scenariu, nu dispărem, ci ne transformăm în ceva diferit față de ceea ce suntem acum. Distincția dintre biologic și artificial devine fluidă. Este, într-un sens, o supraviețuire prin fuziune, asemănătoare cu modul în care genele neanderthaliene au supraviețuit în noi, chiar dacă neanderthalienii ca specie distinctă au dispărut.
Un al patrulea scenariu ar fi cel al regresului tehnologic. Societățile decid, voluntar sau forțat, să reducă complexitatea și dependența de sistemele artificiale. Acest scenariu este logic posibil, dar structural dificil de realizat. Într-un mediu competitiv global, orice actor care reduce unilateral capacitățile tehnologice devine vulnerabil. Chiar dacă ar fi realizat la nivel global, printr-o coordonare fără precedent, ar lăsa societatea expusă constrângerilor energetice și materiale pe care AI ajută să le gestioneze.
Un al cincilea scenariu, pe care analizele anterioare l-au ignorat, ar fi cel al simbiozei cognitive fără fuziune. Omul folosește AI ca un instrument puternic, beneficiind de capacitățile sale de procesare, dar își păstrează autonomia decizională și competențele cognitive fundamentale. Nu fuzionăm cu mașina, dar nici nu devenim periferici. Coexistăm într-o relație de complementaritate.
Acest al cincilea scenariu este atractiv, dar stabilitatea sa pe termen lung rămâne o întrebare deschisă. Presiunile competitive favorizează delegarea crescută: cine delegă mai mult devine mai eficient, cine este mai eficient câștigă, așadar toți sunt presați să delege mai mult. Menținerea simbiozei fără alunecare spre automatizare extensivă sau integrare necesită un efort deliberat și susținut: educație care păstrează competențele, reglementări care încurajează augmentarea în loc de substituție, norme culturale care valorizează autonomia cognitivă.
Nu putem ști care dintre aceste scenarii se va materializa. Este probabil ca realitatea să fie mai complexă decât oricare dintre ele, combinând elemente din mai multe scenarii în configurații pe care nu le putem anticipa pe deplin.
Dar putem identifica câteva condiții care ar infirma sau ar susține diferite părți ale analizei.
Dacă se dezvoltă mecanisme educaționale eficiente care mențin competențele cognitive în ciuda disponibilității AI, acest lucru ar susține viabilitatea scenariului simbiotic. Dacă se observă stabilizarea sau inversarea tendințelor de atrofiere cognitivă măsurate în studii, aceasta ar indica că dependența nu este unidirecțională. Dacă presiunile competitive se dovedesc mai slabe decât rezistența culturală și instituțională, acest fapt ar sugera că scenariile pesimiste supraestimează inerția sistemică.
Dimpotrivă, dacă comportamentele emergente problematice devin tot mai frecvente și mai greu de anticipat, acest lucru ar susține îngrijorările legate de control. Dacă coordonarea globală pentru reglementarea AI eșuează în mod sistematic, acest fapt ar sugera că dilema prizonierului este cu adevărat insolubilă. Dacă dependența infrastructurală se adâncește fără tendințe de contracarare, acest lucru ar indica că pragul de reversibilitate a fost depășit sau este pe cale să fie depășit.
Nu avem răspunsuri definitive la aceste întrebări. Ceea ce avem este capacitatea de a le pune și de a observa cum evoluează indicatorii relevanți. Aceasta este, poate, diferența esențială dintre noi și neanderthalieni. Ei nu dispuneau de instrumentele conceptuale pentru a-și analiza situația. Noi le avem. Întrebarea este ce facem cu ele.
6. Revenirea la întrebare
Am început cu o întrebare: dacă ni s-ar întâmpla ceva asemănător cu ce li s-a întâmplat neanderthalienilor, am recunoaște-o la timp?
După analiza din secțiunile precedente, suntem în măsură să reformulăm această întrebare într-un mod mai precis.
Nu susțin că mecanismele sunt aceleași. Nu sunt. Neanderthalienii au fost marginalizați printr-un proces de selecție biologică și culturală, desfășurat pe milenii, de către o altă specie cu care concurau pentru aceleași resurse, într-un mediu cu constrângeri specifice. Noi ne confruntăm cu o transformare tehnologică și socială, desfășurată pe decenii, produsă de sisteme pe care noi înșine le-am creat. Diferențele sunt fundamentale.
Dar susțin că rezultatul ar putea fi similar. Dacă sistemele pe care le construim dezvoltă comportamente neașteptate și necontrolate. Dacă dependența noastră de aceste sisteme erodează capacități pe care nu le mai putem recupera. Dacă presiunile competitive ne împing spre o delegare tot mai extinsă fără ca nimeni să fi ales în mod explicit această direcție. Dacă toate acestea se întâmplă, putem ajunge într-o situație asemănătoare cu cea a neanderthalienilor: nu învinși de un rival conștient, ci marginalizați de o dinamică pe care nimeni nu a proiectat-o și pe care nimeni nu o controlează.
Aceasta nu este o predicție. Este o posibilitate pe care nu o putem exclude în baza dovezilor actuale.
Și aici se deschide spațiul pentru agentivitate.
Neanderthalienii nu aveau opțiunea de a-și analiza situația și de a decide colectiv o schimbare de strategie. Noi o avem. Imperfect, cu dificultate, cu toate limitările deciziei colective în sisteme mari și complexe, dar o avem. Putem studia mecanismele, putem anticipa tendințele, putem proiecta intervenții.
Întrebarea nu este dacă inteligența artificială va transforma societatea. Aceasta se întâmplă deja. Întrebarea este dacă această transformare va fi modelată în mod deliberat sau va fi suportată pasiv.
Pentru a fi modelată în mod deliberat, trebuie să se întâmple mai multe lucruri.
Ar trebui să dezvoltăm metode mai eficiente pentru anticiparea și detectarea comportamentelor emergente. Aceasta este o problemă atât tehnică, cât și epistemică: cum putem ști ce nu știm despre sistemele pe care le construim?
Ar trebui să proiectăm structuri de stimulente care să încurajeze dezvoltarea responsabilă, fără a penaliza actorii individuali pentru prudență unilaterală. Aceasta este o problemă de coordonare, cu toate dificultățile inerente dilemelor acțiunii colective.
Ar trebui să menținem și să dezvoltăm competențe cognitive umane care ne permit să evaluăm critic rezultatele sistemelor AI, să detectăm erori și să luăm decizii în situații noi, pe care sistemele nu le-au întâlnit. Aceasta este o problemă educațională, dar și culturală: ce valori promovăm, ce transmitem și ce exersăm?
Ar trebui să reflectăm serios asupra distribuției beneficiilor și riscurilor. Cine câștigă din automatizare și cine pierde? Ce mecanisme previn o divizare socială între cei augmentați și cei lăsați în urmă? Care sunt drepturile inalienabile, indiferent de transformările tehnologice?
Nimic din toate acestea nu este ușor, dar nimic nu este imposibil.
Paralela cu neanderthalienii, pe care am explorat-o în acest eseu, nu este o demonstrație că vom dispărea. Este o întrebare despre ce fel de atenție acordăm proceselor lente și cumulative, proceselor care nu au momente dramatice de criză, proceselor care se desfășoară la scări temporale ce depășesc intuiția noastră imediată.
Neanderthalienii nu au avut un moment în care să realizeze că lumea lor se sfârșește. Au existat doar generații succesive, fiecare puțin mai mică, puțin mai izolată, puțin mai săracă cultural, până când au dispărut. Din interior, fiecare moment părea normal. Însă suma acestor momente a fost dispariția.
Noi avem ceva ce ei nu au avut: capacitatea de a privi din exterior, de a observa tendințele și de a ne întreba dacă suma momentelor ne conduce într-o direcție pe care am alege-o dacă am înțelege-o pe deplin.
Aceasta nu garantează că vom face o alegere bună. Nu garantează că vom putea implementa ceea ce alegem. Nu garantează nimic.
Dar există ceva. Este diferența dintre a fi observator al propriei transformări și a fi pur și simplu transformat. Ce facem cu această diferență depinde de decizii care nu au fost încă luate, de conversații care nu au fost încă purtate și de instituții care nu au fost încă construite.
Acest articol nu oferă răspunsuri. Pune o întrebare formulată astfel încât să fie greu de ignorat.
Dacă ni s-ar întâmpla ceva similar cu ceea ce li s-a întâmplat neanderthalienilor, am reuși să recunoaștem acest lucru la timp? Și dacă am recunoaște, ce am face?
Acestea nu sunt întrebări pentru viitor. Sunt întrebări pentru prezent.

Leave a Reply