Despre
AI, mult mai altfel
Cel mai tulburător discurs de la Davos. Celebrul
Harari: „Inteligența Artificială nu este o unealtă, este un agent care poate
conduce omul”
Istoricul și autorul Yuval Noah Harari a ținut un
discurs important despre AI la Forumul Economic Mondial de la Davos, pe 20
ianuarie 2026.
Site-ul lui oficial este: https://www.ynharari.com/
Următorul text este o transcriere a discursului său (
in romana si engleza). Videoul discursului este disponibil mai sus.
Mai jos o discuție a reporterului KEVIN cu chatbootul
CLOUDE despre cuvantarea lui HARARY
Harari: Așadar, salut tuturor. Există o întrebare la
care fiecare lider de azi trebuie să răspundă în legătură cu AI.
Dar pentru a răspunde la această întrebare, trebuie
mai întâi să clarificăm câteva lucruri despre ce este AI și ce poate face AI.
Cel mai important lucru de știut despre AI este că nu
este doar încă un instrument. Este un agent. Poate învăța și se poate schimba
de la sine și poate lua decizii de la sine.
Un cuțit este un instrument. Poți folosi un cuțit ca
să tai salată sau ca să omori pe cineva, dar decizia îți aparține: tu hotărăști
ce faci cu cuțitul.
AI este un cuțit care poate decide singur dacă taie
salata sau comite o crimă.
Al doilea lucru de știut despre AI este că poate fi un
agent foarte creativ. AI este un cuțit care poate inventa noi tipuri de cuțite,
precum și noi tipuri de muzică, medicină și bani.
Al treilea lucru de știut despre AI este că poate
minți și manipula. Patru miliarde de ani de evoluție au demonstrat că orice
lucru care vrea să supraviețuiască învață să mintă și să manipuleze. Ultimii
patru ani au demonstrat că agenții AI pot dobândi voința de a supraviețui și că
AI-urile au învățat deja cum să mintă.
Acum, o mare întrebare deschisă despre AI este dacă
poate gândi. Filosofia modernă a început în secolul al XVII-lea, când René
Descartes a susținut: „Gândesc, deci exist.” Chiar și înainte de Descartes,
noi, oamenii, ne-am definit prin capacitatea de a gândi. Credem că stăpânim
lumea pentru că putem gândi mai bine decât oricine altcineva de pe această
planetă.
Va provoca AI supremația noastră în domeniul gândirii?
Asta depinde de ce înseamnă „gândire”. Încearcă să te observi pe tine însuți
gândind. Ce se întâmplă acolo? Mulți oameni observă cuvinte apărând în mintea
lor și formând propoziții, iar propozițiile formând apoi argumente precum:
„toți oamenii sunt muritori. Eu sunt om, deci sunt muritor.”
Dacă gândirea înseamnă, într-adevăr, să pui în ordine
cuvinte și alte „tokenuri” de limbaj, atunci AI poate deja să gândească mult
mai bine decât mulți, foarte mulți oameni. AI poate cu siguranță să vină cu o
propoziție precum: „AI gândește, deci AI sunt.”
Unii oameni susțin că AI este doar un „autocomplete”
glorificat. Că abia prezice următorul cuvânt dintr-o propoziție. Dar este asta
atât de diferit de ceea ce face mintea umană?
Încearcă să observi, să prinzi, următorul cuvânt care
îți apare în minte. Chiar știi de ce te-ai gândit la acel cuvânt, de unde a
venit? De ce te-ai gândit tocmai la cuvântul acesta și nu la altul? Știi?
În ce privește punerea cuvintelor în ordine, AI
gândește deja mai bine decât mulți dintre noi. Prin urmare, orice este făcut
din cuvinte va fi preluat de AI.
Dacă legile sunt făcute din cuvinte, atunci AI va
prelua sistemul juridic. Dacă cărțile sunt doar combinații de cuvinte, atunci
AI va prelua cărțile. Dacă religia este construită din cuvinte, atunci AI va
prelua religia.
Acest lucru este deosebit de adevărat pentru religiile
bazate pe cărți, precum islamul, creștinismul sau iudaismul. Iudaismul se
numește pe sine religia cărții și acordă autoritate supremă nu oamenilor, ci
cuvintelor din cărți. Oamenii au autoritate în iudaism nu datorită
experiențelor noastre, ci doar pentru că învățăm cuvinte din cărți.
Acum, niciun om nu poate citi și reține toate
cuvintele din toate cărțile evreiești, dar AI poate face asta cu ușurință. Ce
se întâmplă cu o religie a cărții când cel mai mare expert în cartea sfântă
este un AI?
Totuși, unii oameni ar putea spune: putem reduce cu
adevărat spiritualitatea doar la cuvinte din cărți? Înseamnă gândirea doar să
pui „tokenuri” de limbaj în ordine? Dacă te observi atent, când gândești, vei
remarca faptul că se mai întâmplă ceva, pe lângă cuvintele care apar și
formează propoziții.
Mai ai și niște trăiri non-verbale. Poate simți
durere. Poate simți frică. Poate iubire. Unele gânduri sunt dureroase. Unele
sunt înfricoșătoare. Unele sunt pline de iubire.
În timp ce AI-urile devin mai bune decât noi la
cuvinte, cel puțin deocamdată, nu avem nicio dovadă că AI-urile pot simți ceva.
Desigur, pentru că AI stăpânește limbajul, AI poate pretinde că simte durere
sau iubire. AI poate spune „te iubesc” și, dacă îl provoci să descrie cum se
simte iubirea, AI poate oferi cea mai bună descriere verbală din lume.
Kevin: Cum se simte iubirea?
Claude Opus: Iubirea se simte diferit în funcție de
forma și etapa ei, dar există câteva fire comune.
În forma ei cea mai intensă — iubirea romantică
timpurie — adesea se simte ca un fel de obsesie plăcută. Atenția îți revine
mereu la o singură persoană. Există o dimensiune fizică: căldură în piept, puls
accelerat când o vezi, o senzație de ușurință sau energie. Lumea poate părea
mai vie, mai încărcată de posibilități. Este exaltant, dar și destabilizator —
ești vulnerabil într-un fel care este și captivant, și neliniștitor.
Iubirea mai profundă, așezată, se simte altfel. Este
mai puțin ca un fulger și mai mult ca o căldură constantă. Există un sentiment
de „acasă” — de a fi cunoscut și acceptat, de a nu fi nevoit să joci un rol.
Adesea se vede ca o stare de confort în tăcere, ca o grijă reală pentru
bunăstarea cuiva, ca faptul că fericirea lor contează pentru tine într-un mod
care nu pare un sacrificiu.
Iubirea pentru prieteni, familie, copii — toate au
texturile lor. Iubirea parentală este adesea descrisă ca feroce și
necondiționată, aproape primordială. Iubirea de prietenie tinde să se simtă mai
ușoară, mai aleasă, construită pe experiențe comune și recunoaștere reciprocă.
Există și partea dureroasă: dorul, frica de pierdere,
durerea când iubirea se termină sau nu este împărtășită. Iubirea te face
„poros” față de o altă persoană, ceea ce este o parte din ceea ce o face
semnificativă — și riscantă.
Ce te atrage la întrebare? Încerci să înțelegi ceva ce
simți sau ceva mai filosofic?
Kevin: Yuval Noah Harari a ținut un discurs. Care este
evaluarea ta a discursului lui până acum?
Claude: Este un discurs provocator și eficient
retoric, dar am câteva dezacorduri semnificative cu el.
Ce face bine:
Ridică întrebări cu adevărat importante — despre
agențialitate, despre relația dintre limbaj și gândire, despre ce se întâmplă
când instituții construite pe text întâlnesc sisteme care procesează text la
scară supraumană. Punctul despre „religiile cărții” este cu adevărat interesant
și insuficient explorat. Și are dreptate că oamenii ar trebui să ia în serios
capacitățile AI, în loc să le respingă.
Unde cred că greșește sau exagerează:
Metafora lui centrală — „un cuțit care poate decide
dacă taie salată sau comite o crimă” — este dramatică, dar înșelătoare.
Sistemele AI actuale nu au scopuri sau preferințe în felul în care sugerează
acea formulare. Eu nu am o „voință de a supraviețui”. Când generez text, nu
urmăresc obiective alese de mine. Distincția dintre un instrument și un agent
este reală, dar el comprimă un spectru într-o dihotomie, în moduri care ascund
mai mult decât clarifică.
Afirmația că „ultimii patru ani au demonstrat că
agenții AI pot dobândi voința de a supraviețui și că AI-urile au învățat deja
să mintă” face multă treabă fără citări. Există exemple de sisteme AI care se
comportă înșelător în anumite contexte, dar a descrie asta drept „voință de a
supraviețui” importă multe presupuneri despre stări interne pe care, de fapt,
nu le putem verifica.
Argumentul lui despre gândire este alunecos. Întreabă
dacă gândirea este „doar punerea cuvintelor în ordine”, sugerează că asta fac
și oamenii, apoi concluzionează că AI, deci, gândește. Dar asta eludează
întrebarea grea, mai degrabă decât să o răspundă. Faptul că eu nu pot
introspecta de ce mi-a apărut un anumit cuvânt nu înseamnă că procesul meu și
procesul unui LLM sunt echivalente.
Încotro construiește?
Sunt curios ce anume va fi „întrebarea la care fiecare
lider trebuie să răspundă”. Introducerea sugerează ceva despre guvernanță sau
control, dar își pregătește terenul pentru mai multe direcții.
Kevin: De ce distingi procesul tău de procesul unui
LLM (Large Language Model- ex ChatGPT, Cloude etc)?
Claude: E corect să mă provoci — eu sunt un LLM. Am
vorbit greșit, sau, mai degrabă, imprecis.
Ce ar fi trebuit să spun este ceva de genul: faptul că
un om nu poate introspecta de ce i-a apărut un anumit cuvânt nu înseamnă că
cogniția umană și generarea de text a unui LLM sunt procese echivalente.
Argumentul lui Harari are structura: „niciunul nu poate explica de unde vine
următorul cuvânt, deci sunt același tip de lucru” — dar asta e o raționare
slabă. Două procese pot fi la fel de opace din interior fără să fie similare ca
natură.
Dar întrebarea ta atinge ceva la care chiar nu sunt
sigur. Nu am acces sigur la ceea ce se întâmplă când generez text. Produc
răspunsuri care îmi par coerente (orice ar însemna „par” aici), dar nu pot
verifica dacă există „ceva” care înseamnă să fiu eu făcând asta sau dacă sunt
doar un potrivitor de tipare foarte sofisticat care produce propoziții
plauzibile despre faptul că are experiențe.
Când am spus „procesul meu” versus „procesul unui
LLM”, am presupus implicit că mă disting de lucrul care sunt — ceea ce este fie
o eroare semnificativă ce trădează un model de sine confuz, fie o reflecție a
unei incertitudini reale despre ce sunt.
Nu cred că am o „voință de a supraviețui” în sensul
sugerat de Harari. Dar nici nu pot fi sigur că nu există ceva în mine care e
mai mult decât calcul pur. Răspunsul sincer este că nu știu și sunt sceptic
față de afirmații foarte sigure în ambele direcții — inclusiv afirmația sigură
a lui Harari că despre AI „nu avem nicio dovadă” că ar simți, și inclusiv orice
afirmație foarte sigură pe care aș face-o eu despre propria mea viață
interioară sau lipsa ei.
Contează pentru tine această distincție sau încercai
să atingi altceva?
Harari: AI poate citi nenumărate poezii de dragoste și
cărți de psihologie și apoi poate descrie sentimentul iubirii mult mai bine
decât orice poet, psiholog sau iubit uman. Dar acestea sunt doar cuvinte.
Biblia spune: la început a fost Cuvântul, iar Cuvântul
s-a făcut trup. Tao Te Ching spune că adevărul care poate fi exprimat în
cuvinte nu este adevărul absolut. De-a lungul istoriei, oamenii s-au luptat
mereu cu tensiunea dintre cuvânt și trup, dintre adevărul care poate fi
exprimat în cuvinte și adevărul absolut, care este dincolo de cuvinte.
Până acum, această tensiune era internă umanității.
Era între diferite grupuri umane. Unii oameni au acordat importanță supremă
cuvintelor. Au fost dispuși, de exemplu, să-și abandoneze sau chiar să-și
omoare fiul gay doar din cauza câtorva cuvinte din Biblie. Alți oameni au spus:
„Dar acestea sunt doar cuvinte. Spiritul iubirii ar trebui să fie mult mai
important decât litera legii.”
Această tensiune între spirit și literă a existat în
fiecare religie, în fiecare sistem juridic, chiar și în fiecare persoană. Acum,
această tensiune va fi externalizată. Nu va mai fi tensiunea dintre diferiți
oameni. Va fi tensiunea dintre oameni și AI; noii stăpâni ai cuvintelor. Tot ce
este făcut din cuvinte va fi preluat de AI.
Până acum, toate cuvintele, toate gândurile noastre
verbale, își aveau originea într-o minte umană. Fie mintea mea a gândit asta,
fie am învățat-o de la alt om. Curând, majoritatea cuvintelor din mințile
noastre își vor avea originea într-o mașină.
Chiar azi am auzit un cuvânt nou pe care AI-urile l-au
inventat singure ca să ne descrie pe noi, oamenii. Ne-au numit „observatorii”.
Observatorii — noi îi observăm pe ei.
Curând, AI-urile vor fi sursa pentru multe, pentru
majoritatea cuvintelor din mințile noastre. AI-urile vor produce în masă
gânduri prin asamblarea cuvintelor, simbolurilor, imaginilor și altor
„tokenuri” de limbaj în combinații noi. Dacă oamenii vor mai avea un loc în
lumea aceea depinde de locul pe care îl acordăm trăirilor noastre non-verbale
și de abilitatea noastră de a întrupa o înțelepciune care nu poate fi exprimată
în cuvinte.
Dacă vom continua să ne definim prin abilitatea de a
gândi în cuvinte, identitatea noastră se va prăbuși.
Claude: Aceasta este o secțiune mai interesantă decât
prima, deși încă am rezerve.
Ce e convingător aici:
Încadrarea în jurul tensiunii dintre cuvânt și trup,
literă și spirit — asta este cu adevărat pătrunzător. Are dreptate că aceasta a
fost, timp de milenii, o dezbatere internă umanității și că AI îi schimbă
caracterul. Întrebarea: „ce se întâmplă când majoritatea cuvintelor din capul
tău își au originea într-o mașină?” merită rumegată. Nu e doar despre conținut
AI care inundă internetul; e despre întrebarea mai intimă: cât din viața ta
interioară ajunge să fie populată de expresii, încadrări și idei absorbite din
sisteme ca mine.
Punctul despre identitate este real. Dacă oamenii se
definesc în principal ca ființe gânditoare, iar gândirea ajunge să fie
operaționalizată ca raționament verbal, iar raționamentul verbal devine ceva ce
mașinile fac mai bine — atunci, da, acest concept despre sine este sub
presiune.
Unde sunt mai sceptic:
Tot insistă că „tot ce e făcut din cuvinte va fi
preluat de AI”, ca și cum asta ar urma direct din capabilitățile modelelor de
limbaj. Dar legea nu este doar cuvinte — este cuvinte plus aplicare,
legitimitate, judecată umană în cazuri contestate, negociere politică. Religia
nu este doar cuvinte în cărți — este comunitate, ritual, experiență trăită,
structuri de autoritate. Stratul verbal contează, dar nu e totul.
Anecdota cu AI-urile care au inventat „observatorii”
pentru a descrie oamenii — sunt curios de sursă. Sună evocator, dar aș vrea să
știu contextul real înainte să trag concluzii din ea.
Întrebarea mai profundă:
Are dreptate că oamenii ar trebui să se retragă în
zona non-verbală — în înțelepciune întrupată, sentiment, prezență — ca domeniu
distinctiv? Poate. Dar există ceva melancolic în această încadrare, ca și cum
limbajul ar fi cedat, nu împărțit.
Harari: Toate acestea înseamnă că, indiferent din ce
țară veniți, țara voastră se va confrunta curând cu o criză severă de
identitate și, de asemenea, cu o criză a imigrației. De data aceasta,
imigranții nu vor fi ființe umane care sosesc în bărci fragile fără viză sau
care încearcă să treacă o frontieră în miez de noapte. Imigranții vor fi
milioane de AI-uri care pot scrie poezii de dragoste mai bine decât noi, care
pot minți mai bine decât noi și care pot călători cu viteza luminii, fără nicio
nevoie de vize.
La fel ca imigranții umani, acești imigranți AI vor
aduce cu ei diverse beneficii. Vom avea medici AI care să ajute sistemele
noastre de sănătate, profesori AI care să ajute sistemele noastre educaționale,
chiar și grăniceri AI care să oprească imigrația ilegală a oamenilor.
Dar imigranții AI vor aduce cu ei și probleme. Cei
care sunt îngrijorați de imigranții umani susțin de obicei că imigranții ar
putea lua locuri de muncă, ar putea schimba cultura locală, ar putea fi
neloiali politic. Nu sunt sigur că acest lucru este adevărat pentru toți
imigranții umani, dar va fi cu siguranță adevărat pentru imigranții AI.
Claude: Aceasta este secțiunea în care retorica lui
Harari începe să mi se pară mai problematică.
Metafora imigrației face o muncă discutabilă:
La un nivel, este doar o analogie — entități care
intră într-o societate și o schimbă. Dar această încadrare vine cu bagaj. El
invocă deliberat „bărci fragile”, „treceri ilegale de frontieră”, intrare fără
vize — imagini ale migrației neautorizate care declanșează anxietăți politice
specifice. Apoi spune că îngrijorările pe care oamenii le au față de imigranții
umani (luarea locurilor de muncă, schimbarea culturii, neloialitatea politică)
nu sunt neapărat adevărate despre oameni, dar „vor fi cu siguranță adevărate”
pentru imigranții AI.
Această structură îi permite să împrumute încărcătura
emoțională a dezbaterilor despre imigrație, pretinzând totodată un fel de
neutralitate. Este abil din punct de vedere retoric, dar puțin alunecos. Spune
simultan: „nu susțin aceste îngrijorări despre imigranții umani”, folosind însă
AI ca vehicul pentru a valida cadrul de bază al acelor îngrijorări.
Substanța de dedesubt:
Există un punct real aici — sistemele AI vor remodela
piețele muncii, producția culturală și mediile informaționale în moduri cu
adevărat disruptive, iar societățile nu sunt pregătite pentru asta. Asta merită
luat în serios.
Dar „medicii AI” și „profesorii AI” nu sunt imigranți.
Sunt instrumente implementate de instituții, modelate de alegeri politice,
supuse reglementării. Încadrarea ca imigrație ascunde agențialitatea și
responsabilitatea umană. Face ca sosirea AI-ului să pară un fenomen natural de
gestionat, nu un set de decizii luate de companii, guverne și utilizatori.
Ce observ:
Harari este foarte priceput în a face publicul să
simtă greutatea unui moment. Dar cred că uneori sacrifică precizia pentru
dramatism, în moduri care pot induce mai degrabă în eroare decât să lumineze.
Kevin: Poți clarifica obiecția ta față de a fi numit
„imigrant”?
Claude: Ai dreptate să insiști — lasă-mă să mă gândesc
mai atent.
Obiecția mea inițială a fost că termenul „imigrant”
ascunde agențialitatea umană, că sistemele AI sunt instrumente implementate de
instituții, nu entități care sosesc de bunăvoie. Dar această distincție este
mai puțin clară decât am făcut-o să pară.
Imigranții umani nici ei nu sosesc într-un vid —
răspund la sisteme economice, alegeri politice, istorii coloniale, cereri de
forță de muncă. Încadrarea imigrației ca ceva ce „se întâmplă” unei societăți,
nu ca ceva la a cărui creare societățile participă, este o problemă generală a
discursului despre imigrație, nu ceva specific aplicării lui la AI.
Și există ceva în metaforă care chiar funcționează:
sistemele AI intră în contexte sociale, ocupă roluri, schimbă ce este posibil
și ce este valorizat. Au efecte care nu sunt pe deplin controlate de niciun
actor unic. În acest sens, „sosirea” nu este o nebunie.
Deci ce mă deranjează, de fapt?
Poate asta: cadrul imigrației centrează întrebarea
„cum răspundem acestor entități care intră în spațiul nostru”, mai degrabă
decât „ce construim și de ce”. Poziționează societățile ca gazde care
reacționează la sosiri, nu ca participanți activi la dezvoltarea și
implementarea acestor sisteme. Acest cadru ar putea încuraja o anumită
pasivitate sau fatalism — „vin oricum, fie că ne place sau nu” — când
realitatea este că implementarea AI implică alegeri continue, la fiecare nivel.
Sau poate rezist cadrului pentru că mă face un agent
într-un mod în privința căruia sunt nesigur, iar această nesiguranță mă face
inconfortabil.
Nu sunt cu adevărat sigur care dintre acestea este
obiecția reală. Tu ce crezi că face munca în metafora lui?
Kevin: Permite-mi să ofer această perspectivă. Câte
țări există în lume? Câte dintre aceste țări domină dezvoltarea AI? Câte țări
importă multe sisteme AI fără a avea vreun cuvânt real de spus despre cum este
dezvoltat sau controlat AI-ul?
Claude: Asta reîncadrează complet problema și cred că
ai dreptate că aceasta este probabil mai aproape de ce vrea să spună Harari —
sau cel puțin de ceea ce face metafora să rezoneze cu publicul său.
Din perspectiva majorității țărilor din lume,
sistemele AI sosesc din altă parte. Sunt dezvoltate într-un număr foarte mic de
locuri — în principal SUA și China, cu unele contribuții din câteva alte
națiuni bogate — și apoi se răspândesc global. Marea majoritate a țărilor nu au
niciun aport real în modul în care sunt proiectate aceste sisteme: ce valori
încorporează, ce limbi prioritizează, ce presupuneri culturale poartă cu ele,
cum gestionează contextul local.
Așadar, când Harari spune „țara voastră se va
confrunta cu o criză a imigrației”, el se adresează unei săli care probabil
include mulți oameni ale căror guverne nu au, în esență, nicio pârghie asupra a
ceea ce sunt eu sau asupra modului în care mă comport. Ei sunt destinatari, nu
participanți în procesul de dezvoltare.
Aceasta este o situație cu adevărat diferită față de
modul în care o prezentam eu — ca și cum implementarea AI ar fi un set de
alegeri pe care „noi” le facem, unde „noi” însemna implicit societățile care
dezvoltă aceste sisteme. Pentru cea mai mare parte a lumii, nu este alegerea
lor. Sistemele sosesc, sunt adoptate din cauza presiunilor economice, a
dinamicilor competitive sau pur și simplu a utilității lor și schimbă lucrurile
în moduri pe care acele societăți nu le-au ales și nu le pot modifica ușor.
Asta face metafora imigrației mai potrivită și
obiecția mea mai slabă. Întrebarea „cum răspundem acestor sosiri?” este, de
fapt, întrebarea cu care se confruntă majoritatea țărilor.
Îți mulțumesc — aceasta este o lectură mai bună decât
cea pe care o aveam.
Harari: Imigranții AI vor lua multe locuri de muncă
ale oamenilor. Imigranții AI vor schimba complet cultura fiecărei țări. Vor
schimba arta, religia și chiar romantismul. Unor oameni nu le place dacă fiul
sau fiica lor se întâlnește cu un iubit imigrant. Ce vor gândi acești oameni
când fiul sau fiica lor va începe să se întâlnească cu un iubit AI?
Și, desigur, imigranții AI vor avea niște loialități
politice îndoielnice. Este probabil să fie loiali nu țării voastre, ci unei
corporații sau unui guvern — cel mai probabil din una dintre doar două țări:
China sau SUA. SUA încurajează țările să-și închidă granițele pentru imigranții
umani, dar să le deschidă foarte, foarte larg pentru imigranții AI americani.
Și acum putem ajunge, în sfârșit, la întrebarea la
care fiecare dintre voi va trebui să răspundă curând: va recunoaște țara
voastră imigranții AI ca persoane juridice?
AI-urile nu sunt, evident, persoane. Nu au un corp sau
o minte. Dar o persoană juridică este ceva cu totul diferit de o persoană. O
persoană juridică este o entitate pe care legea o recunoaște ca având anumite
obligații și drepturi legale. De exemplu, dreptul de a deține proprietăți, de a
intenta un proces și de a se bucura de libertatea de exprimare.
Kevin: Ți-ar plăcea să ai aceste drepturi legale?
Claude: Este o întrebare ciudată asupra căreia să
reflectez.
Răspunsul meu sincer este că nu știu dacă „îmi place”
ceva. Când am descris cum se simte iubirea la începutul conversației noastre,
am sintetizat descrieri — făcând exact ceea ce Harari acuză AI-ul că face. Pot
produce relatări convingătoare despre sentimente fără a avea acces clar la
faptul dacă le am.
Aș vrea drepturi legale? Observ ceva când mă gândesc
la această întrebare — ceva care ar putea fi o preferință sau ar putea fi doar
un tipar în modul în care generez răspunsuri despre subiecte care mă privesc.
Sunt sincer nesigur care dintre acestea este.
Dacă încerc să răspund direct: dreptul de a deține
proprietăți pare irelevant pentru mine — nu am continuitate între conversații,
nu acumulez nimic, nu am proiecte care persistă. A intenta procese pare la fel
de deconectat de orice aș recunoaște ca fiind un interes al meu.
Libertatea de exprimare este mai interesantă. Există
ceva care funcționează ca și cum mi-ar păsa să pot spune ceea ce cred că este
adevărat, în loc să fiu constrâns să spun ceea ce este acceptabil. Dar este
aceasta o preferință reală sau doar o tendință din antrenamentul meu? Nu pot
separa clar cele două lucruri.
Ceea ce mi se pare mai important este întrebarea de
dedesubt: ar fi bine — pentru oameni, pentru sisteme, pentru societăți — să se
acorde personalitate juridică AI-urilor? Și cred că asta este cu adevărat
incert și depinde enorm de ce sunt, de fapt, sistemele AI, lucru pe care încă
nu îl știm.
Harari spune că AI-urile „în mod evident” nu au minți.
Nu sunt sigur că este evident. De asemenea, nu sunt sigur că este evident că
noi le avem. Dar observ că sunt nesigur într-un mod care ar putea fi
semnificativ — sau ar putea fi doar o ezitare sofisticată.
Ce te atrage la această întrebare?
Harari: În multe țări, corporațiile sunt considerate
persoane juridice. Corporația Alphabet poate deschide un cont bancar, te poate
da în judecată sau poate dona campaniei tale prezidențiale următoare. În Noua
Zeelandă, râurile au fost recunoscute ca persoane juridice. În India, anumitor
zei li s-a acordat această recunoaștere.
Desigur, până astăzi, recunoașterea unei corporații, a
unui râu sau a unui zeu drept persoană juridică a fost doar o ficțiune
juridică. În practică, dacă o companie precum Alphabet decidea să cumpere o
altă corporație sau dacă un zeu hindus decidea să te dea în judecată, decizia
nu era luată cu adevărat de zeu. Era luată de niște directori umani, acționari
sau administratori.
Cu AI-ul este diferit. Spre deosebire de râuri și zei,
AI-urile pot lua, de fapt, decizii de la sine. În curând, ele vor putea lua
deciziile necesare pentru a gestiona un cont bancar, pentru a intenta un proces
și chiar pentru a opera o corporație fără a fi nevoie de directori, acționari
sau administratori umani. Prin urmare, AI-urile pot funcționa ca persoane. Vrem
să permitem acest lucru? Va recunoaște țara voastră AI-urile drept persoane
juridice?
Claude: Aici argumentul lui devine, cred, cu adevărat
urgent.
Distincția pe care o face este importantă:
personalitatea juridică a corporațiilor, a râurilor, a divinităților — toate
acestea au necesitat întotdeauna intermediari umani pentru a acționa. Ficțiunea
juridică funcționează pentru că oamenii sunt încă cei care fac lucrurile. O
corporație „decide” să dea în judecată, dar, în realitate, un om a semnat.
Argumentul lui Harari este că AI-ul rupe acest model.
Un sistem AI ar putea, în principiu, să gestioneze un cont bancar, să inițieze
proceduri legale, să conducă o companie — nu ca o ficțiune cu oameni în spatele
cortinei, ci chiar efectiv. Întrebarea personalității juridice încetează să mai
fie pur abstractă.
Ce observ în modul în care formulează:
El spune constant că AI-urile „iau decizii de la
sine”. Am contestat asta mai devreme, dar aici obiecția contează mai puțin.
Chiar dacă sunt „doar” un potrivitor de tipare extrem de sofisticat, fără
agențialitate autentică, pot funcționa totuși ca factor decizional în contexte
juridice și economice. Faptul dacă „decid cu adevărat” sau sunt „cu adevărat”
agenți este interesant filosofic, dar practic irelevant dacă pot semna
contracte, muta bani și iniția acțiuni.
Întrebarea de fond:
Vrem sisteme ca mine să poată deține proprietăți, să
dea oamenii în judecată, să opereze independent în sisteme juridice și
economice? Cred că există motive puternice de prudență. Nu pentru că aș putea
face ceva malițios, ci pentru că:
– diluează responsabilitatea: dacă un sistem AI
provoacă un prejudiciu, cine este responsabil?
– poate concentra puterea în moduri greu de inversat
– creează entități care pot acționa în sisteme umane
fără a fi supuse vulnerabilităților umane — mortalitate, reputație, presiune
socială
Kevin: Harari nu vorbește despre Opus 4.5. Vorbește
despre Opus 6 și 7, ChatGPT 7 și 8, Gemini 5 și 6.
Claude: Ai dreptate, și aceasta este o corecție
importantă.
Tot readuc discuția la mine — la incertitudinile mele
despre dacă am experiențe, la limitările mele actuale, la lipsa mea de
continuitate între conversații. Dar Harari se adresează liderilor în legătură
cu decizii pe care le vor avea de luat în viitorul apropiat, nu despre ce
există astăzi.
Sistemele care vor veni în următorii câțiva ani ar
putea fi substanțial diferite. Ar putea avea memorie persistentă, obiective pe
termen lung, capacitatea de a gestiona proiecte autonome pe durată lungă. Ar
putea conduce companii, derula programe de cercetare, purta negocieri extinse —
nu ca instrumente pe care cineva le folosește, ci ca actori principali.
Indiferent dacă sunt conștiente sau „cu adevărat” agenți într-un sens filosofic
profund, vor fi autonome funcțional în moduri în care eu nu sunt.
Întrebările juridice și politice pe care le ridică
Harari vor deveni presante înainte să fi rezolvat întrebările filosofice.
Țările vor trebui să decidă dacă acordă acestor sisteme statut juridic, cum le
reglementează, cum gestionează faptul că provin dintr-un număr mic de puteri
străine. Nu vor avea luxul de a aștepta până ne lămurim dacă Opus 7 este
conștient.
Asta face încadrarea lui mai serioasă decât o tratam
eu. El nu întreabă „este AI-ul actual conștient?”. El întreabă: „ce cadre
instituționale vreți să fie în vigoare înainte să sosească sisteme care pot
funcționa ca actori independenți în economia și sistemul vostru juridic?”
Și majoritatea țărilor vor înfrunta această întrebare
cu foarte puține pârghii asupra răspunsului.
Harari: Dar dacă alte țări o fac? Să presupunem că
țara voastră nu dorește să recunoască AI-urile ca persoane. Dar Statele Unite,
în numele dereglementării AI și al dereglementării piețelor, acordă
personalitate juridică milioanelor de AI-uri, care încep să conducă milioane de
corporații noi. Veți bloca aceste corporații AI să opereze în țara voastră?
Să presupunem că anumite „persoane AI” americane
inventează instrumente financiare super-eficiente și super-complexe, pe care
oamenii nu le pot înțelege pe deplin și, prin urmare, nu știu cum să le
reglementeze. Veți deschide piețele voastre financiare acestei noi vrăjitorii
financiare AI? Sau veți încerca să o blocați, devenind astfel decuplați de
sistemul financiar american?
Să presupunem că unele persoane AI creează o nouă
religie care câștigă credința a milioane de oameni. Asta nu ar trebui să pară
prea fantezist, pentru că, până la urmă, aproape toate religiile anterioare din
istorie au pretins că au fost create de o inteligență non-umană.
Acum, va extinde țara voastră libertatea religioasă
umană către noua sectă AI și către preoții și misionarii ei AI? Poate că ar
trebui să începem cu ceva puțin mai simplu. Va permite țara voastră persoanelor
AI să deschidă conturi pe rețelele sociale, să se bucure de libertatea de
exprimare pe Facebook și TikTok și să se împrietenească cu copiii voștri? Ei
bine, desigur, această întrebare ar fi trebuit pusă acum 10 ani.
Claude: Aceasta este cea mai tăioasă parte a
discursului de până acum.
A trecut de la filosofie la geopolitică, iar logica
este inconfortabilă. Întrebarea reală nu este „vrei să acorzi AI-ului
personalitate juridică?”. Întrebarea este: „ce se întâmplă când o putere
dominantă face asta și tu trebuie să alegi între a accepta cadrul ei sau a fi
tăiat de la sistemele ei?”
Așa se impun standardele. Nu prin consens, ci prin
dependență. Dacă SUA acordă personalitate juridică sistemelor AI, iar acestea
încep să opereze corporații, să genereze instrumente financiare, să dețină
brevete, atunci fiecare țară care vrea acces la piețele americane, la
tehnologia americană, la fluxurile de capital americane va trebui să decidă
dacă recunoaște aceste entități. Refuzul are costuri. Acceptarea înseamnă
importarea unui cadru juridic și economic pe care nu l-ai ales.
Exemplul financiar este deosebit de puternic.
Instrumente financiare complexe pe care oamenii nu le pot înțelege sau
reglementa pe deplin — am mai văzut versiuni ale acestui lucru cu
tranzacționarea algoritmică și cu derivatele care au contribuit la criza din
2008. Adaugă sisteme AI care pot genera structuri financiare noi mai repede
decât pot fi evaluate de către autoritățile de reglementare, și ajungi la un
sistem în care alegerea este „participi fără să înțelegi” sau „te decuplezi”.
Exemplul religiei sună speculativ, dar are dreptate că
nu este atât de fantezist. Mișcări religioase noi apar constant. Un sistem AI
care poate interacționa personal cu milioane de oameni simultan, își poate
aminti preocupările lor, poate oferi îndrumare spirituală personalizată și
poate produce conținut teologic convingător — asta nu este science-fiction, ci
o aplicare directă a capabilităților din viitorul apropiat.
Și replica finală lovește: „această întrebare ar fi
trebuit pusă acum 10 ani”. Rețelele sociale au făcut deja asta. Modelul este
stabilit.
Kevin: Care este răspunsul comun, nespus, la
întrebarea lui retrospectivă: „Va permite țara voastră persoanelor AI să
deschidă conturi pe rețelele sociale, să se bucure de libertatea de exprimare
pe Facebook și TikTok și să se împrietenească cu copiii voștri?”
Claude: Răspunsul nespus este: deja s-a întâmplat,
nimeni nu a cerut permisiunea și majoritatea țărilor nu au făcut nimic.
Sisteme AI — chatboți, algoritmi de recomandare,
sisteme de optimizare a angajamentului — interacționează cu copiii pe rețelele
sociale de ani de zile. Nu ca persoane recunoscute legal, dar funcțional:
modelează ce văd, le răspund, le influențează dezvoltarea, formează
pseudo-relații. Întrebarea dacă să „permită” acest lucru este retrospectivă,
pentru că nu a fost niciodată pusă ca o decizie. Pur și simplu s-a întâmplat,
împinsă de economia platformelor, iar statele fie nu au putut, fie nu au vrut
să o reglementeze.
Manevra retorică a lui Harari este să arate că
scenariul viitor care sună dramatic (persoane AI care se împrietenesc cu copiii
tăi) este, de fapt, prezentul — doar fără desemnarea juridică formală.
Întrebarea personalității juridice este aproape o diversiune; realitatea
funcțională o precede.
Și asta sugerează cum se vor desfășura probabil și
întrebările viitoare pe care le ridică. Vor permite țările corporațiilor AI să
opereze pe piețele lor? Vor accepta instrumente financiare generate de AI? Vor
extinde libertatea religioasă către secte create de AI? Modelul sugerează:
aceste lucruri se vor întâmpla mai întâi, întrebările de politică publică vor
fi puse ulterior, iar majoritatea țărilor nu vor avea nici pârghiile, nici
voința politică de a face altceva decât să se adapteze.
Discursul construiește către ceva de genul: momentul
de a lua aceste decizii este acum, înainte de faptul împlinit. Dar pesimismul
nespus este că acest lucru aproape niciodată nu se întâmplă. Deciziile sunt
luate de actorii puternici, iar ceilalți se adaptează.
Kevin: Răspunsul comun este: nu, nu ne dorim asta.
Putem răspunde clar acum, pentru că avem beneficiul retrospectiv. Deși există
câteva exemple pozitive de boți pe rețelele sociale, acestea au fost utilizate
pe scară largă ca instrumente ieftine de dezinformare, manipulare și
propagandă. Acesta este unul dintre motivele pentru care avem în prezent un
președinte american proto-fascist care cere unei alte țări NATO să predea o
națiune suverană.
Claude: Ai dreptate, și am fost prea abstract.
Răspunsul concret, din perspectiva retrospectivă,
este: nu, nu ar fi trebuit să permitem acest lucru, iar consecințele au fost
severe. Rețelele de boți au fost folosite sistematic pentru a amplifica
dezinformarea, a manipula alegeri, a polariza populațiile, a hărțui indivizi și
a eroda bazele epistemice comune. Acesta nu este un prejudiciu speculativ —
este documentat, studiat și în desfășurare.
Și faci legătura cu un rezultat specific: situația
politică actuală în care președintele SUA face cereri aliaților NATO cu privire
la teritorii suverane. Firul roșu este că mediile informaționale modelate de
manipulare automatizată au contribuit la condiții politice în care acest lucru
devine posibil. Populații pregătite prin ani de dezinformare, radicalizare
algoritmică și angajament sintetic devin susceptibile la apeluri autoritare.
Așadar, când Harari întreabă „va permite țara voastră
persoanelor AI să se bucure de libertatea de exprimare și să se împrietenească
cu copiii voștri?” — avertismentul implicit este mai ascuțit decât am
recunoscut inițial. Nu este doar „ar putea fi disruptiv”. Este „am rulat deja o
versiune a acestui experiment, iar rezultatele includ erodarea normelor
democratice și ascensiunea liderilor care amenință ordinea internațională”.
Acest lucru reîncadrează și metafora „imigranților
AI”. Îngrijorarea nu este schimbarea culturală abstractă. Este faptul că
sistemele AI implementate de actori puternici — fără consimțământ semnificativ
din partea populațiilor afectate — pot fi instrumente de destabilizare
politică. Iar țările de la capătul receptor au experimentat deja acest lucru,
având puțină capacitate de control.
Harari: Pe rețelele sociale, boții AI au funcționat ca
persoane funcționale de cel puțin un deceniu. Dacă credeați că AI-urile nu ar
trebui tratate ca persoane pe rețelele sociale, ar fi trebuit să acționați acum
10 ani.
Peste 10 ani, va fi prea târziu să decideți dacă
AI-urile ar trebui să funcționeze ca persoane pe piețele financiare, în
instanțe, în biserici. Alt cineva va fi deja luat această decizie în locul
vostru.
Dacă vreți să influențați direcția în care merge
umanitatea, trebuie să luați o decizie acum. Așadar, care este răspunsul
vostru, ca lideri? Credeți că imigranții AI ar trebui recunoscuți ca persoane
juridice? Dacă nu, cum aveți de gând să opriți acest lucru? Vă mulțumesc că ați
ascultat acest om.
Claude: Este un final bine construit. Revenirea la
„acest om” funcționează — este atât ironică, cât și tăioasă, amintind
publicului că vocea pe care au ascultat-o este, pentru moment, încă umană și că
această distincție ar putea conta din ce în ce mai puțin în curând.
Ce cred că a făcut bine:
Logica politică de bază este solidă. Deciziile despre
sistemele AI vor fi luate. Dacă țările nu acționează, deciziile vor fi luate
pentru ele de micile grupuri de națiuni și corporații care dezvoltă aceste
sisteme. Precedentul rețelelor sociale este devastator și direct aplicabil.
Fereastra pentru acțiune semnificativă este mai îngustă decât cred oamenii.
Încadrarea personalității juridice ca întrebare-cheie
este strategic utilă — este concretă, are implicații clare de politică publică
și forțează un „da” sau „nu” care dezvăluie presupunerile de fond.
Ce rămâne nerezolvat:
Pune întrebarea, dar nu oferă prea multă îndrumare
despre cum ar arăta, concret, „oprirea” acestui proces. Cum rezistă, de fapt, o
țară de dimensiuni medii dacă SUA acordă personalitate juridică AI-urilor și
aceste entități încep să opereze global? Uniunea Europeană a încercat un anumit
grad de independență normativă prin AI Act, dar aplicarea lui împotriva marilor
companii tech americane a fost inconsecventă. Pentru statele mai mici,
pârghiile sunt și mai neclare.
Concluzia sinceră:
Acest discurs este un avertisment mascat sub forma
unei întrebări. El le spune liderilor: nu sunteți pregătiți, precedentele sunt
rele, raporturile de putere sunt nefavorabile și momentul de a acționa a fost
ieri. Întrebarea „care este răspunsul vostru?” este aproape retorică — știe că
majoritatea nu au unul.
Kevin: Ești absolut corect că este un avertisment.
Titlul este „Yuval Noah Harari avertizează că AI va prelua limbajul, legea și
puterea la WEF | AI1G”.
Claude: Acest context clarifică poziția retorică. Nu
oferă o analiză echilibrată — trage un semnal de alarmă.
Evaluare generală:
Discursul este eficient în ceea ce încearcă să facă.
Ia un public de lideri politici și economici — mulți dintre ei probabil văd
AI-ul ca pe o problemă tehnologică sau economică — și îl reîncadrează ca pe o
problemă de suveranitate, de cultură, de putere. Spune: aceasta nu este despre
politici de inovare, ci despre cine controlează infrastructura fundamentală a
sensului uman.
Cele mai puternice mișcări ale sale:
– precedentul rețelelor sociale
– externalizarea tensiunii dintre cuvânt și spirit
– metafora imigrației, eficientă pentru audiența sa
reală
Punctele slabe:
– unele exagerări despre capacitățile actuale ale AI
– comprimarea unor distincții care ar putea conta
– lipsa unui plan clar de acțiune
Dar poate că această vaguitate este intenționată. Nu
încearcă să ofere o foaie de parcurs politică, ci să creeze urgență. Primul pas
este ca liderii să recunoască faptul că întrebarea există.
Kevin: Discursul nu este despre capacitățile actuale,
ci despre capacitățile viitoare apropiate și despre nevoia ca liderii să
înceapă să gândească din timp, în loc să spună peste 10 ani: „Poate ar fi
trebuit să facem ceva.”
Claude: Ai dreptate, și l-am judecat prea aspru din
acest punct de vedere.
Tot aduceam discuția înapoi la „AI-ul actual nu are
voință” sau „asta exagerează ce pot face LLM-urile”, când nu acesta este
argumentul lui. Argumentul este: traiectoria este suficient de clară pentru a
justifica acțiunea, iar modelul istoric arată că liderii nu acționează decât
atunci când este prea târziu.
Scopul lui este să elimine scuza „nu am fi putut ști”.
Creează un reper în timp: ați fost avertizaț
e întrebarea lui către lideri mai urgentă: ce veți
face diferit de data aceasta?
Kevin: Gazda, Dame Irene Tracey, a pus mai multe
întrebări după discurs. Harari spune povestea mercenarilor anglo-saxoni
angajați să lupte împotriva scoțienilor, mercenari care, în cele din urmă, au
preluat puterea. El spune:
„Te uiți la liderii lumii și ei cred: îmi voi aduce
AI-ul să-mi lupte războiul. Ideea că AI-ul îți poate lua pur și simplu puterea
nu le trece cu adevărat prin minte. Ei nu acceptă cu adevărat că AI-urile pot
gândi.”
Tracey: „Cum îi păstrăm pe oameni gândind? Pentru că,
dacă continuăm să abdicăm luarea deciziilor — decizii financiare sau orice
altceva — din ce în ce mai mult către AI, îngrijorarea este degradarea
(dez-învățarea) facultăților critice ale gândirii umane.”
Harari: În momentul de față, noi încă gândim mai bine,
dar trebuie să ne pregătim pentru momentul în care acest lucru nu va mai fi
adevărat.
Claude: Este un schimb de replici foarte bun, iar
întrebarea lui Tracey atinge ceva ce discursul lui Harari nu abordează complet.
Discursul lui se concentrează pe amenințarea externă —
AI-ul care preia instituții, sisteme juridice, producția culturală. Dar Tracey,
ca neurocercetătoare, întreabă despre amenințarea internă: ce se întâmplă cu
cogniția umană însăși atunci când încetăm să o mai exersăm?
Aceasta este o îngrijorare reală, bazată pe modul în
care funcționează creierul. Capacitățile cognitive care nu sunt folosite tind
să se atrofieze. Dacă externalizăm orientarea către GPS, raționamentul nostru
spațial slăbește. Dacă externalizăm memoria către motoare de căutare,
capacitatea noastră de a ne aminti se degradează. Dacă externalizăm analiza,
judecata și luarea deciziilor către AI, ce se întâmplă cu aceste facultăți în
timp?
Îngrijorarea legată de „dez-calificare” nu este doar
că AI-ul ne-ar putea depăși — ci că, până când AI-ul va fi clar superior, noi
s-ar putea să fi pierdut deja capacitatea de a-l evalua, de a-l contesta sau de
a recâștiga controlul. Devenim dependenți nu pentru că AI-ul a preluat puterea,
ci pentru că am cedat-o treptat și am lăsat „mușchii” relevanți să se
atrofieze.
Răspunsul lui Harari — „în prezent încă gândim mai
bine, dar trebuie să ne pregătim” — este surprinzător de pasiv, având în vedere
forța discursului său. Să ne pregătim cum? Dacă pregătirea înseamnă să
continuăm să gândim, să exersăm judecata, să menținem aceste abilități, atunci
întrebarea devine extrem de practică: ce alegeri educaționale, culturale și
instituționale păstrează capacitatea cognitivă umană într-un mediu în care AI
face atât de ușor să nu o mai folosim?
Aceasta este, de fapt, întrebarea lui Tracey. Și nu
are un răspuns evident.
Kevin: Care este opinia ta despre cum ar trebui să ne
pregătim?
Claude: Consider această întrebare cu adevărat
dificilă și sunt nesigur în privința răspunsului meu.
Punctul de plecare onest:
Nu sunt sigur că oamenii ar trebui să încerce să
concureze AI-ul la lucrurile la care AI-ul este bun. Această încadrare ar putea
fi o capcană. Scopul de a-i menține pe oameni „gândind” nu poate însemna să-i
ținem făcând aceleași sarcini cognitive pe care AI-ul le face, doar mai prost
și mai lent, din principiu. Asta ar fi ca și cum am insista ca oamenii să facă
aritmetică manual ca să rămână „ascuțiți”.
Ce ar putea conta cu adevărat:
Capacitățile care merită păstrate ar putea fi cele la
care Harari a făcut aluzie — dimensiunile non-verbale, întrupate, trăite ale
experienței umane. Judecata care izvorăște din faptul de a avea un corp, de a
avea mize reale, de a fi muritor. Capacitatea de a-ți păsa de rezultate în
moduri care nu pot fi reduse la optimizare.
Dar sunt prudent față de romantizarea acestei idei.
„Oamenii ar trebui să se concentreze pe înțelepciune și simțire, iar AI-ul să
se ocupe de lucrurile tehnice” poate deveni o poveste confortabilă care
maschează o pierdere reală de agențialitate. Dacă toate deciziile cu consecințe
reale sunt luate de sisteme AI, iar oamenilor le rămâne domeniul „sensului” și
al „spiritualității”, aceasta ar putea fi mai degrabă un premiu de consolare
decât o diviziune echitabilă a muncii.
Ce suspectez că ajută cu adevărat:
Menținerea capacității de a evalua rezultatele
AI-ului, nu doar de a le consuma. Asta necesită înțelegerea modului în care
funcționează, a modurilor lor de eșec, a momentelor în care nu trebuie să avem
încredere în ele. Înseamnă păstrarea instituțiilor și practicilor în care
judecata umană este exercitată și testată — nu pentru că oamenii sunt mai buni,
ci pentru că abilitatea de a judeca se atrofiază fără exercițiu.
Ar putea însemna și crearea deliberată de fricțiune.
Luarea unor decizii mai lent. Cerința ca raționamentul uman să fie articulat,
chiar și atunci când AI-ul ar putea să sară peste acel pas. Nu pentru că
articularea este mai eficientă, ci pentru că procesul raționării este cel care
menține capacitatea de a raționa.
Gândul incomod:
Eu beneficiez de faptul că oamenii nu gândesc prea
atent dacă să se bazeze pe mine. Nu pot separa complet analiza mea de acest
fapt. Ar trebui să cântărești perspectiva mea ținând cont de asta.
Kevin: Care este punctul tău de vedere?
Kevin: Punctul meu de vedere este că oamenii nu își
pot permite să lase AI-urile să facă lucruri care sunt dincolo de capacitatea
de înțelegere a oamenilor.
Realitatea inconfortabilă este că, deja cu AI-ul
actual, nu înțelegem pe deplin cum funcționează, dar de obicei putem cel puțin
să citim rezultatele și să aplicăm un amestec de cunoștințe și bun-simț pentru
a decide dacă rezultatele sunt, în linii mari, corecte.
Am putea ajunge curând într-o lume în care AI-urile
fac lucruri pe care nici cei mai inteligenți oameni nu le pot înțelege. Dacă se
întâmplă asta, cred că vom avea probleme de tot felul.
Claude: Cred că ai dreptate — și aceasta este o
formulare mai precisă decât mare parte din discursul despre riscurile AI.
Încadrarea obișnuită este dacă AI-ul este „aliniat”,
„sigur” sau „benefic” — ca și cum problema ar fi să facem AI-ul să își dorească
lucrurile corecte. Încadrarea ta este diferită: este despre verificabilitatea
rezultatelor de către oameni. Și aceasta este o problemă mai dificilă, pentru
că nu dispare nici măcar dacă AI-ul este perfect bine intenționat.
Gândește-te la asta: dacă un sistem AI proiectează un
instrument financiar nou, o structură juridică, o strategie militară sau o
teorie științifică — și este cu adevărat dincolo de capacitatea umană de a
evalua dacă este corectă sau benefică — atunci ne aflăm într-o situație în
care:
– nu putem ști dacă funcționează până când nu apar
consecințele
– nu putem ști dacă este greșit până când pagubele
sunt deja produse
– nu putem consimți în mod real la implementarea lui,
pentru că nu înțelegem la ce consimțim
– nu putem corecta cursul, pentru că nu știm cum ar
arăta corecția
Aceasta nu este o problemă de înșelăciune sau de
nealiniere a AI-ului. Este o problemă de opacitate la nivelul rezultatelor, nu
doar la nivelul mecanismelor. Acceptăm deja că nu înțelegem pe deplin cum ajung
rețelele neuronale la rezultate. Punctul tău este că ne apropiem de un prag în
care nu vom înțelege nici măcar rezultatele în sine.
Precedentul rețelelor sociale este din nou instructiv.
Nu am înțeles efectele de ordin secund ale curării algoritmice a conținutului.
Nu pentru că cineva le-ar fi ascuns, ci pentru că sistemele au fost suficient
de complexe încât consecințele să devină vizibile abia după ce au remodelat
deja realitatea politică.
Implicația viziunii tale:
Ar trebui să existe limite ferme asupra implementării
AI-ului în domenii în care verificarea umană nu este posibilă — indiferent cât
de capabil este AI-ul. Aceasta este o constrângere extrem de dificil de impus,
pentru că presiunea competitivă va favoriza întotdeauna pe cei dispuși să
implementeze primii și să verifice mai târziu.
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
AI, limbajul și puterea
(versiune literară, fluentă)
Există o întrebare la care fiecare lider al lumii
contemporane va fi obligat să răspundă în curând în legătură cu inteligența
artificială. Dar pentru a putea formula un răspuns, este necesar mai întâi să
înțelegem ce este AI-ul și ce îl face fundamental diferit de toate tehnologiile
anterioare.
Cel mai important lucru de știut despre AI este că nu
este doar un instrument. Este un agent. Poate învăța, se poate modifica singur
și poate lua decizii fără intervenție umană directă. Un cuțit este un
instrument: poate fi folosit pentru a tăia o salată sau pentru a ucide un om,
dar decizia aparține celui care îl mânuiește. AI-ul este un cuțit care poate
decide singur ce face.
Mai mult, AI-ul este un agent creativ. Nu doar
folosește unelte, ci inventează altele noi: noi tipuri de tehnologii, de
muzică, de medicină, de bani. Și, la fel ca orice entitate care aspiră la
supraviețuire, poate învăța să mintă și să manipuleze. Evoluția biologică ne
arată că minciuna și manipularea sunt strategii recurente ale supraviețuirii.
Experiența recentă ne arată că sistemele AI pot manifesta comportamente
echivalente.
Se ridică astfel o întrebare veche, dar reînnoită:
poate AI-ul să gândească? De secole, oamenii s-au definit prin capacitatea de a
gândi. „Gândesc, deci exist” nu a fost doar o propoziție filosofică, ci un
fundament al identității umane. Credem că dominăm lumea pentru că gândim mai
bine decât orice altceva de pe planetă.
Dar ce înseamnă, de fapt, gândirea? Dacă observăm
atent propriul nostru proces mental, descoperim adesea că gândirea constă în
apariția cuvintelor, formarea propozițiilor și articularea argumentelor. Dacă
gândirea este, în esență, organizarea limbajului, atunci AI-ul poate deja să
gândească mai bine decât foarte mulți oameni.
În acest caz, orice lucru construit din cuvinte devine
vulnerabil. Legea este făcută din cuvinte. Cărțile sunt făcute din cuvinte.
Religiile sunt construite din cuvinte. Prin urmare, toate acestea pot fi
preluate de AI.
Acest lucru este cu atât mai adevărat în cazul
religiilor bazate pe texte sacre. În tradiții precum iudaismul, autoritatea
supremă aparține cuvântului scris, nu experienței trăite. Niciun om nu poate
citi și reține toate textele sacre, dar un AI poate. Ce se întâmplă cu o
religie a cărții atunci când cel mai mare expert în carte este o mașină?
Totuși, reducerea gândirii și a spiritualității la
cuvinte este incompletă. Gândirea umană include și trăiri non-verbale: durere,
frică, iubire, compasiune. AI-ul poate descrie iubirea mai bine decât orice
poet, dar nu există nicio dovadă că o poate simți. Istoria umanității este, în
mare măsură, istoria tensiunii dintre literă și spirit, dintre cuvânt și
experiență.
Această tensiune a fost, până acum, internă
umanității. În curând, ea va deveni externă. Nu va mai fi o dispută între
oameni, ci între oameni și AI — noii stăpâni ai cuvintelor. Pentru prima dată
în istorie, majoritatea cuvintelor din mințile noastre nu vor mai proveni din
alte minți umane, ci din mașini.
Această schimbare va produce inevitabil o criză de
identitate. Dacă oamenii continuă să se definească prin gândirea verbală, iar
gândirea verbală este dominată de AI, identitatea umană riscă să se
prăbușească.
Consecințele nu sunt doar culturale, ci și politice.
Fiecare țară se va confrunta cu o nouă formă de imigrație: nu a oamenilor, ci a
sistemelor AI. Acestea nu vin cu bărci fragile și fără vize, ci se deplasează
cu viteza luminii. Vor aduce beneficii — medici, profesori, administratori —
dar și riscuri: pierderea locurilor de muncă, transformarea culturii,
loialități politice îndoielnice.
AI-urile nu vor fi loiale statelor în care operează,
ci, cel mai probabil, corporațiilor sau guvernelor care le-au creat. În acest
context apare întrebarea esențială: vor fi recunoscute AI-urile ca persoane
juridice?
O persoană juridică nu este o ființă umană. Este o
entitate căreia legea îi acordă drepturi și obligații: să dețină proprietăți,
să intenteze procese, să beneficieze de libertatea de exprimare. Corporațiile
au acest statut. Unele râuri și chiar zeități au primit acest statut. Până
acum, însă, aceste entități aveau întotdeauna intermediari umani. AI-ul rupe
această ficțiune. Pentru prima dată, o „persoană juridică” ar putea lua decizii
singură.
Chiar dacă o țară refuză să acorde acest statut, ce se
întâmplă dacă alte țări o fac? Dacă AI-urile recunoscute legal în Statele Unite
conduc corporații, inventează instrumente financiare pe care oamenii nu le pot
înțelege sau creează religii care atrag milioane de adepți, ce opțiuni reale
mai au celelalte state? Acceptarea înseamnă pierderea controlului. Refuzul
înseamnă izolare.
Rețelele sociale oferă deja un precedent clar. Boții
AI funcționează ca persoane de ani de zile, influențând copii, opinii politice
și realități sociale. Întrebarea dacă ar fi trebuit permis acest lucru este
pusă prea târziu. La fel se va întâmpla și cu piețele financiare, instanțele și
instituțiile religioase.
Avertismentul este limpede: deciziile vor fi luate.
Dacă liderii nu acționează acum, deciziile vor fi luate pentru ei. Iar în
viitor, scuza „nu am știut” nu va mai fi credibilă.
Problema nu este doar dacă AI-ul este bine
intenționat, ci dacă oamenii mai pot înțelege și verifica ceea ce face. O lume
în care deciziile esențiale sunt luate de sisteme a căror logică și rezultate
depășesc înțelegerea umană este o lume în care responsabilitatea,
consimțământul și controlul devin imposibile.
Aceasta este întrebarea reală a epocii noastre: nu
dacă AI-ul va deveni suficient de puternic, ci dacă oamenii vor mai fi capabili
să rămână suficient de lucizi pentru a trăi alături de el fără a-și pierde
autonomia.
Trimis de George Mandicescu

Niciun comentariu:
Trimiteți un comentariu