Cum poate schimba inteligența artificială (AI) calculatoarele, cultura, ba chiar istoria cu totul

Cum poate schimba inteligența artificială (AI) calculatoarele, cultura, ba chiar istoria cu totul? Să ne așteptăm la transformări radicale cu privire la modul în care accesăm cunoașterea, cum relaționăm cu ea și chiar asupra modului în care gândim despre noi și ne înțelegem.
Unul dintre cele mai sumbre cadouri făcute de iluminism a fost conștientizarea sfârșitului – planeta va dispărea, iar odată cu ea, omenirea. Revoluția astronomică din secolul al XVII-lea dovedea că sistemul solar funcționa după principii cât se poate de raționale și că existau în cosmos comete și corpuri cerești care ar putea, la un moment dat, lovi Pământul.
Trecutul geologic interpretat de savantul francez Georges-Louis Leclerc (1707-1788), conte de Buffon, indica extincții masive printre speciile de pe Pământ. A venit apoi Charles Darwin, care a definit aceste extincții drept motorul evoluției, deopotrivă forța care a dus la apariția omului, implicit cea care ar putea duce la dispariția lui.
Odată cu apariția termodinamicii, în ecuație a fost introdusă și dimensiunea cosmică privind certitudinea unui sfârșit – Soarele, Pământul și toată suflarea vor sfârși printr-o „moarte termică“, scrie revista britanică The Economist.
Promisiunea progresului evoluționist
Odată cu secolul XX a apărut ideea că extincția speciei umane s-ar putea să nu se producă natural, ci artificial. Totul a fost alimentat de descoperirea, iar apoi de exploatarea puterii înmagazinate în nucleii atomici. Celebrată de unii dintre descoperitorii săi ca fiind o modalitate de a amâna pe termen nelimitat moartea termică, a devenit limpede destul de repede că energia nucleară poate fi exploatată letal. Așa se face că amenințarea cât se poate de tangibilă a unei eventuale catastrofe nucleare a ajuns să afecteze alte tehnologii. Cea mai vizibilă – computerul.
Putem vorbi de o vină prin asociere – computerul a jucat un rol-cheie în dezvoltarea arsenalului nuclear. Credința iluministă în rațiune drept cea mai mare realizare a omenirii și teoria darwinistă a evoluției au făcut ca promisiunea atingerii unei raționalități supraomenești să fie o posibilitate a progresului evoluționist. Dar cu prețul umanității.
În ultimele două decenii, inteligența artificială a devenit tot mai importantă în grupul restrâns al academicienilor care-și bat capul cu riscul existențial implicat. O lume în care există entități care gândesc mai bine și acționează mai rapid decât oamenii și decât instituțiile acestora și care au interese diferite de cele ale omenirii ar putea deveni un loc periculos.
Specialiștii din domeniu susțin că există „o șansă diferită de zero“ ca niște entități să se dezvolte și să conducă la extincția oamenilor. Explozia remarcabilă în materie de modele mari de limbaj (LLM), modele „fundamentale“ și forme înrudite de inteligență artificială generativă au potențat aceste discuții despre riscurile existențiale în imaginarul colectiv, dar și în corespondențele interministeriale. O tehnologie care schimbă lumea nu trebuie să aducă odată cu schimbarea și sfârșitul acesteia.
Dar, în contextul specific al inteligenței artificiale generative GPT-4 și al modelelor mari de limbaj, discuțiile despre riscuri existențiale par mai curând absurde.
Produc proză, lirică și cod, generează imagini, sunete, mici filmulețe, fac predicții pe baza unor modele. E greu de imaginat că aceste capacități pot să dezvolte ceva ce poate lua controlul asupra civilizației umane sau să ne înlocuiască pur și simplu, cum atrag atenția alarmiștii și criticii, scrie The Economist.
Cântec de dragoste
Nu înseamnă că amploarea schimbărilor pe care inteligența artificială le-ar putea aduce ar trebui ignorată sau minimizată. Dar este o tehnologie mai mult despre viață decât despre extincție. O tehnologie care schimbă lumea nu înseamnă că duce și la distrugerea ei.
Suntem abia la începutul tranziției către o lume populată de programe computerizate capabile de conversații la nivel uman, de înțelegere lingvistică și de o putere deja supraumană de asimilare a datelor. Apariția unor pseudocogniții ubicue ar putea fi un punct de cotitură în istoria omenirii, chiar dacă actualul ritm de dezvoltare a inteligenței artificiale se mai domolește sau dacă dezvoltările fundamentale au fost epuizate (ceea ce este puțin probabil).
Este de așteptat să aibă implicații nu doar pentru cum oamenii își câștigă existența și-și organizează viețile, ci și asupra felului cum își percep și înțeleg propria umanitate.
Pentru a creiona cam ce ar putea urma, pot fi utile trei posibile analogii sau trimiteri la precursori – browserul de internet, tiparnița și practica psihanalitică.
Prima invenție a schimbat tot ce înseamnă tehnologia informației (IT) și economie, a doua a schimbat modul în care oamenii au căpătat acces la cunoaștere, iar a treia a schimbat modul în care oamenii se înțeleg pe sine.
Umilul browser de internet, apărut la începutul anilor ’90, a schimbat modul în care au început să fie folosite computerele, modul în care industria computerelor a început să funcționeze și cum este organizată informația. Dublat de capacitatea de a conecta computerele în rețele, browserul a devenit fereastra prin care fișiere și apoi aplicații puteau fi accesate de oriunde, indiferent de unde erau localizate. Interfața prin care utilizatorul interacționa cu aplicația era separată de aplicația în sine.
Separarea fundamentală între interfață și aplicație a continuat. Amazon, Meta (inițial, Facebook) și Alphabet (inițial, Google) domină azi tocmai pentru că au transformat browserul într-un canal pentru bunuri, informații și conexiuni interumane. Nici nu mai contează cine a inventat browserul, rolul său ca platformă a devenit fundamental.
În lunile care au urmat lansării ChatGPT, chatbotul celor de la OpenAI, modul în care au explodat afacerile în jurul acestei inovații face să pălească bula dot.com. Pentru utilizatori, aplicații bazate pe modelele mari de limbaj sau pe software similar pot fi incredibil de ușor de folosit – scrii ceva și obții rezultatul.
Nici pentru dezvoltatori nu e așa greu. „Îți deschizi laptopul, scrii câteva linii de cod care interacționează cu modelul“, explică Ben Tossell, un antreprenor britanic, autorul unui newsletter despre servicii de inteligență artificială.
Modelele mari de limbaj sunt tot mai capabile să contribuie la scrierea de cod pentru că dețin blocuri predefinite din numeroase programe, care îi lasă să fie ca niște copiloți pentru programatori.
De pildă, programatorii de la GitHub, un site open-source de programare, folosesc acum drept un copilot pe bază de GPT-4 pentru a scrie cam jumătate din cod. Acolo unde browserele au separat interfața folosită de utilizator de aplicația software, este posibil ca LLM să dizolve ambele categorii. Acest lucru ar putea marca o schimbare fundamentală atât în modul în care oamenii folosesc computerele, cât și modelele de afaceri.
Scriu o carte pe zi
Code-as-a-service, adică atunci când AI scrie cod, sună ca un plus care schimbă și el jocul. Doar că o abordare creativă similară când vorbim de conturile de pe internet poate fi un minus. Dacă browserele oferă o interfață privind conținutul și codul scrise de oameni, modelele mari de limbaj generează singure conținutul, numai că pot ajunge să fabuleze de-a dreptul – uneori iese un nonsens curat (introduc, de pildă, în biografia unei persoane elemente plauzibile, dar neadevărate).
Fabulațiile respective sunt generate adesea de contradicții în blocurile pe care le învață, iar modelele mari de limbaj sunt concepute să producă ceva coerent, nu neapărat adevărat. Creează conținut care nu are sens într-o lume din afara textelor și imaginilor pe baza cărora sunt pregătite. În multe aplicații, tendința de a elimina neadevărurile plauzibile este un defect, pentru altele s-ar putea să fie o caracteristică de dorit.
Videoclipurile false (deep fake) cu politicieni sunt doar începutul. Este de așteptat ca modelele mari de limbaj să fie folosite pentru a stabili rețele de atac la cerere, cu site-uri web false, roboți Twitter, pagini de Facebook, fluxuri pe TikTok și multe altele. În curând, sursele de dezinformare vor fi infinite, atenționează Renée DiResta, de la Stanford Internet Observatory.
O chestiune care nu este neapărat o amenințare existențială. Dar este un aspect problematic. Duce cu gândul la nuvela „Biblioteca lui Babel“, a lui Jose Luis Borges. Biblioteca respectivă conține toate cărțile care au fost vreodată scrise, dar și pe cele care nu au fost niciodată scrise, cărți pline de erori, cărți care sunt niște prostii. Tot ce contează însă este acolo, dar nu poate fi găsit, din cauză că este și foarte mult nonsens.
Bibliotecarii sunt în pragul nebuniei și al disperării. Povestea lui Borges devine o poveste cu un substrat tehnologic limpede. Inteligența artificială folosește ceea ce știe să facă o tiparniță și recombină un număr fix de simboluri într-un număr infinit de modalități. Practic, este o altă modalitate de a vedea modelele mari de limbaj de azi.
Visurile fără sfârșit
Inventarea tiparniței de Johannes Gutenberg a imprimat responsabilitate în fiecare fațetă a vieții în secolele ce au urmat. A schimbat relațiile dintre Dumnezeu și oameni, între trecut și prezent. A permis diseminarea în masă a opiniilor, sistematizarea birocrației, acumularea de cunoaștere. A dus la apariția noțiunii de proprietate intelectuală, dar și la posibilitatea de a pirata.
Cărțile tipărite le-au permis erudiților să parcurgă volume vaste de informații, ceea ce anterior nu era posibil. Din acest punct de vedere, analogia cu modelele mari de limbaj este evidentă – dacă sunt învățate folosind un corpus dat de cunoștințe, pot genera aproape orice din respectivul corpus. Doar că dobândirea cărții a însemnat mai mult decât acumulare de cunoaștere.
La aproape un secol de la invenția lui Gutenberg, aristocratul francez Michel de Montaigne reușea să aibă o bibliotecă de circa 1.500 de cărți, ceva inimaginabil pentru un singur om în acea epocă. Biblioteca nu i-a oferit doar cunoaștere, ci și prieteni. Lovit de gânduri negre, nimic nu-l ajuta mai mult să uite de ele decât cărțile, după cum scria chiar el.
Ideea de carte i-a oferit și modalitatea de a fi el, într-un fel în care nimeni nu mai explorase până atunci – să se pună pe sine între coperți. „Cititorule, eu însumi sunt materia cărții mele“, scria Michel de Montaigne. Așa se face că producția în masă de cărți a făcut ca acestea să devină tot mai personale, devenea posibil să scrii o carte doar despre tine. Altfel spus, cărțile au început să producă autori.
Ca mod de a prezenta cunoștințe, modelele mari de limbaj promit să ducă mai departe partea practică și pe cea personală a cărții, în unele cazuri abolindu-le cu totul pe ambele. O aplicație a modelelor mari de limbaj este de a transforma bucăți de cunoștințe în subiect de conversație pentru chatboturi. Așa că, în loc să mai citești un corpus de text, întrebi o entitate instruită pe baza acelui corp de text și poți obține răspunsuri bazate pe informațiile conținute de respectivul text. De ce să mai dai paginile când poți interoga o lucrare în întregime?
Mode noi
Azi, toată lumea pare să urmeze aceste modele îmbunătățite ca modalități de a accesa cunoașterea. Compania media Bloomberg , din Statele Unite ale Americii, lucrează la BloombergGPT, un model pentru informații financiare. Există primele versiuni ale QuranGPT și ale BibleGPT. Câteva start-upuri oferă servicii care transformă toate documentele de pe hard-diskul utilizatorilor sau din cloud într-o resursă pentru consultanță conversațională.
Mulți dintre cei care se numără printre primii utilizatori folosesc chatboturile ca pe niște cutii de rezonanță. „Este ca un coleg-enciclopedie cu care poți discuta“, explică Jack Clark, de la Anthropic, un start-up care creează modele mari de limbaj.
Este ușor să imaginezi astfel de intermediari, ajung să devină ca o rudă. Ba chiar ar putea deveni un soi de versiune externalizată a vocii interioare a utilizatorilor.
Cercetătorii de la Institutul Australian pentru Învățare Automată au construit o primă versiune a unui astfel de asistent pentru compozitoarea și muziciana Laurie Anderson. Asistentul este învățat cu informații bazate parțial pe opera ei, parțial pe cea a defunctului ei soț, Lou Reed. Laurie Anderson spune că nu consideră că folosește sistemul ca și când ar colabora cu defunctul ei partener.
Însă alții ar putea ușor să cadă pradă unei astfel de iluzii. Dacă unele chatboturi devin, prin extensie, vocea interioară a utilizatorilor lor, atunci vocea va supraviețui utilizatorului când acesta va muri și vor fi unii care vor dori să continue să converseze cu acea voce. Cu siguranță, vor fi unii care chiar vor dori ca acele chatboturi personale să fie moștenitoarele lor.
Asemenea aplicații și implicații trimit cu gândul la clasicul eseu al lui Sigmund Freud despre straniu. Freud ia ca punct de plecare ideea că straniul este ceva înspăimântător tocmai pentru că este ceva foarte familiar.
Deși cercetătorii în materie de inteligență artificială pot explica mecanismele creațiilor lor, nu pot încă explica și ce se petrece concret în interiorul acestor creații. „Nu există un raționament teoretic suprem care să explice totul“, concluziona recent pe un blog Stephen Wolfram, creatorul motorului de căutare matematic Wolfram Alpha, în încercarea de a explica funcționarea internă a modelelor.
Acest aspect ridică două preocupări legate între ele, dar care se exclud reciproc. Una, că AI are o funcționare internă pe care cercetătorii nu o pot încă percepe. A doua, că este posibil să fii considerat om în societate chiar dacă nu ai niciun fel de înțelegere interioară a propriului sine.
„Aceste modele sunt doar o reprezentare a distribuirii cuvintelor în texte folosite pentru a produce mai multe cuvinte“, explică Emily Bender, profesoară de lingvistică la Universitatea Washington din Seattle și autoarea unei critici la adresa triumfalismului LLM. Modelele nu au niciun fel de înțelegere reală. Fără experiența vieții reale sau a comunicării umane nu pot oferi decât abilitatea de a reproduce ca papagalii ce au primit în procesul de învățare. Ceva ce nu poate fi comparat niciodată cu gândul. Cam aceasta este adesea percepția celor care au ajuns în zona AI prin lingvistică, așa cum este cazul lui Bender.
Dar, pentru cei implicați în comercializarea acestor inteligențe, lucrurile nu sunt așa simple. Sau nu stau deloc așa. Modelele de AI nu pot fi expediate ca fiind niște simpli parteneri de conversație „care flecăresc la comandă“, după cum susține Blaise Agüera y Arcas, liderul unei echipe de la Alphabet, care dezvoltă produse care folosesc AI. Acesta crede că modelele au atribute ce nu pot fi cu adevărat diferențiate de capacitatea de a ști (înțelege) ce înseamnă de fapt lucrurile despre care „vorbesc“.
Și asta se poate observa, sugerează el, în capacitatea lor de a alege în mod sigur sensul potrivit atunci când traduc fraze care sunt ambigue din punct de vedere gramatical sau de a explica glumele.
Dacă Bender are dreptate, atunci putem susține că mai multe tipuri de comportamente despre care oamenii au ajuns să creadă că sunt esențial umane nu sunt așa în mod necesar. A accepta că o inteligență artificială humanoidă (cu aspect uman) poate fi redusă la calcule, statistici și nimic mai mult ar putea influența cum gândesc chiar oamenii despre ei.
Freud se portretiza ca fiind un continuator al curentelor inițiate de Nicolaus Copernic, cel care a scos oamenii din centrul Universului (vezi heliocentrismul versus geocentrism), și de Darwin, care l-a scos din poziția privilegiată (dată de Dumnezeu) printre celelalte animale. Contribuția psihanaliticii, din perspectiva lui Freud, constă în efortul de a dovedi egoului uman că nu este stăpân nici măcar „în propria casă“.
Dar iată că, în timp, omenirea le-a rezistat și lui Copernic, și lui Darwin, și lui Freud. Oamenii sunt raționali, dar mai cred în zei, spirite și paranormal. Prin urmare, s-ar putea adapta destul de ușor la o viitoare lume pseudocognitivă.
Noul vis de aur
Dar dacă Agüera y Arcas, de la Alphabet, are dreptate totuși și ceea ce știința pecetluiește că este lipsit de viață este totuși animat, într-un fel criptic, parțial și emergent la acest moment? Atunci ar fi timpul să facem pentru inteligența artificială ceea ce a crezut Freud că face pentru oameni. Realizând că partea conștientă a creierului uman nu este întregul spectacol, Freud s-a uitat în altă parte, în căutarea surselor dorinței umane, cea care în definitiv ne dictează comportamentul.
Ideea că există motive pentru care oamenii fac lucruri de care nu sunt conștienți este parte din arhitectura mentală a lumii. Impresia că ar putea fi totuși ceva într-o inteligență artificială și că acel ceva trebuie înțeles s-ar putea să fie foarte puternică.
Și poate că și dorințele umane ar trebui și ele revizuite. De ce atât de mulți oameni doresc să ajungă la o intimitate cu inteligența artificială? De ce atât de mulți oameni cred că, dat fiind că unele specii au dispărut evoluând, automat și specia noastră ar păți la fel și pe propria mână sau pe mâna urmașilor noștri? Și unde e dorința aceea puternică de a transforma raționalitatea supraumană în ceva ce nu doar duce la un salt economic, dar ar putea schimba întreaga istorie în bine?
Cursa
Capacitatea de inteligență artificială generativă există de ceva vreme. Însă modelele mari de limbaj nu au fost atât de convingătoare decât de anul trecut.
- INVESTIȚII URIAȘE. Legat de boomul modelelor mari de limbaj, care alimentează produse precum ChatGPT, Alphabet, Microsoft, Amazon și Meta pompează sume imense pentru a rămâne în fruntea inovației.
- GOOGLE. A anunțat că folosește AI pentru a îmbunătăți rata de conversie a reclamelor, dar și pentru a reduce cantitatea de „text toxic“ care intră în modelele AI. Compania se bazează pe două echipe principale de AI – Brain și DeepMind.
- MICROSOFT. Folosește tehnologia OpenAI GPT în motorul său de căutare Bing, Office și pentru sistemul de teleconferințe Teams.
- AMAZON. Își construiește propriile LLM-uri și proiectează cipuri pentru centrele de date pentru învățarea automată.
Acest articol a apărut în numărul 164 al revistei NewMoney
FOTO: Getty