Cum poate schimba inteligența artificială (AI) calculatoarele, cultura, ba chiar istoria cu totul

Mimi Noel 02/06/2023 | 10:53 Global
Cum poate schimba inteligența artificială (AI) calculatoarele, cultura, ba chiar istoria cu totul

Cum poate schimba inteligența artificială (AI) calculatoarele, cultura, ba chiar istoria cu totul? Să ne așteptăm la transformări radicale cu privire la mo­dul în care accesăm cunoașterea, cum relaționăm cu ea și chiar asupra modului în care gândim despre noi și ne înțelegem.

Unul dintre cele mai sumbre cadouri făcute de iluminism a fost conștientizarea sfârșitului – planeta va di­s­părea, iar odată cu ea, omenirea. Revoluția astrono­mică din secolul al XVII-lea dovedea că sistemul solar funcționa după principii cât se poate de raționale și că existau în cosmos comete și corpuri cerești care ar putea, la un moment dat, lovi Pământul.

Trecutul geologic interpretat de savantul francez Georges-Louis Leclerc (1707-1788), conte de Buffon, indica ex­tincții masive printre speciile de pe Pământ. A venit apoi Charles Darwin, care a definit aceste extincții drept motorul evoluției, deopotrivă forța care a dus la apariția omului, implicit cea care ar putea duce la dispariția lui.

Odată cu apariția termodinamicii, în ecuație a fost introdusă și dimensiunea cosmică pri­vind certitudinea unui sfârșit – Soarele, Pământul și toată suflarea vor sfârși printr-o „moarte termică“, scrie revista britanică The Economist.

Promisiunea progresului evoluționist

Odată cu secolul XX a apărut ideea că extincția spe­ciei umane s-ar putea să nu se producă natural, ci ar­tificial. Totul a fost alimentat de descoperirea, iar apoi de exploatarea puterii înmagazinate în nucleii atomici. Celebrată de unii dintre descoperitorii săi ca fiind o modalitate de a amâna pe termen nelimitat moartea termică, a devenit limpede destul de repede că energia nucleară poate fi exploatată letal. Așa se face că amenințarea cât se poate de tangibilă a unei even­tuale catastrofe nucleare a ajuns să afecteze alte tehnologii. Cea mai vizibilă – computerul.

Putem vorbi de o vină prin asociere – computerul a jucat un rol-cheie în dezvoltarea arsenalului nuclear. Credința iluministă în rațiune drept cea mai mare rea­li­zare a omenirii și teoria darwinistă a evoluției au fă­cut ca promisiunea atingerii unei raționalități supra­ome­nești să fie o posibilitate a progresului evolu­ționist. Dar cu prețul umanității.

În ultimele două decenii, inteligența artificială a devenit tot mai importantă în grupul restrâns al academicienilor care-și bat capul cu riscul existențial implicat. O lume în care există entități care gândesc mai bine și acționează mai rapid decât oamenii și decât in­stituțiile acestora și care au interese diferite de cele ale omenirii ar putea deveni un loc periculos.

Specialiștii din domeniu susțin că există „o șansă di­ferită de zero“ ca niște entități să se dezvolte și să con­ducă la extincția oamenilor. Explozia remarcabilă în materie de modele mari de limbaj (LLM), modele „fun­damentale“ și forme înrudite de inteligență arti­fi­cială gene­ra­tivă au potențat aceste discuții despre ris­curile existențiale în imaginarul colectiv, dar și în co­respon­den­țele interministeriale. O tehnologie care schimbă lu­mea nu trebuie să aducă odată cu schimba­rea și sfârșitul acesteia.

Dar, în contextul specific al inteligenței artificiale generative GPT-4 și al modelelor mari de limbaj, dis­cu­țiile despre riscuri existențiale par mai curând absurde.

Produc proză, lirică și cod, generează imagini, sunete, mici filmulețe, fac predicții pe baza unor mo­dele. E greu de imaginat că aceste capacități pot să dez­volte ceva ce poate lua controlul asupra civilizației umane sau să ne înlocuiască pur și simplu, cum atrag atenția alarmiștii și criticii, scrie The Economist.

Cântec de dragoste

Nu înseamnă că amploarea schimbărilor pe care inteligența artificială le-ar putea aduce ar trebui ignorată sau minimizată. Dar este o teh­nologie mai mult despre viață decât despre extinc­ție. O tehnologie care schimbă lumea nu înseamnă că duce și la distrugerea ei.

Suntem abia la începutul tranziției către o lume po­pu­lată de programe computerizate capabile de con­ver­sații la nivel uman, de înțelegere lingvistică și de o pu­tere deja supraumană de asimilare a datelor. Apa­ri­ția unor pseudocogniții ubicue ar putea fi un punct de cotitură în istoria omenirii, chiar dacă actualul ritm de dezvoltare a inteligenței artificiale se mai domo­lește sau dacă dezvoltările fundamentale au fost epui­zate (ceea ce este puțin probabil).

Este de așteptat să aibă implicații nu doar pentru cum oamenii își câștigă existența și-și organizează viețile, ci și asupra felului cum își percep și înțeleg propria umanitate.

Pentru a creiona cam ce ar putea urma, pot fi utile trei posibile analogii sau trimiteri la precursori – brow­serul de internet, tiparnița și practica psihanalitică.

Prima invenție a schimbat tot ce înseamnă tehnologia informației (IT) și econo­mie, a doua a schimbat modul în care oamenii au că­pătat acces la cunoaștere, iar a treia a schimbat mo­dul în care oamenii se înțeleg pe sine.

Umilul browser de internet, apărut la începutul ani­lor ’90, a schimbat modul în care au început să fie folosite computerele, modul în care industria compu­te­relor a început să funcționeze și cum este organizată informația. Dublat de capacitatea de a conecta computerele în rețele, browserul a devenit fereastra prin care fișiere și apoi aplicații puteau fi accesate de oriunde, indiferent de unde erau localizate. Interfața prin care utilizatorul interacționa cu aplicația era separată de aplicația în sine.

Separarea fundamentală între interfață și aplicație a continuat. Amazon, Meta (inițial, Facebook) și Alphabet (inițial, Google) domină azi tocmai pentru că au transformat browserul într-un canal pentru bunuri, informații și conexiuni interumane. Nici nu mai con­tează cine a inventat browserul, rolul său ca platformă a devenit fundamental.

În lunile care au urmat lansării ChatGPT, chatbotul celor de la OpenAI, modul în care au explodat aface­rile în jurul acestei inovații face să pălească bula dot.com. Pentru utilizatori, aplicații bazate pe modelele mari de limbaj sau pe software similar pot fi incredibil de ușor de folosit – scrii ceva și obții rezultatul.

Nici pentru dezvoltatori nu e așa greu. „Îți des­chizi laptopul, scrii câteva linii de cod care interacțio­nează cu modelul“, explică Ben Tossell, un antrepre­nor britanic, autorul unui newsletter despre servicii de inteli­gență artificială.

Modelele mari de limbaj sunt tot mai capabile să contribuie la scrie­rea de cod pentru că dețin blocuri pre­definite din nu­me­roase programe, care îi lasă să fie ca niște copiloți pentru programatori.

De pildă, progra­ma­torii de la GitHub, un site open-source de pro­gra­mare, folosesc acum drept un copilot pe bază de GPT-4 pentru a scrie cam jumătate din cod. Acolo unde brow­serele au se­parat interfața folosită de utilizator de aplicația software, este posibil ca LLM să di­zolve ambele categorii. Acest lucru ar putea marca o schimbare fundamentală atât în modul în care oamenii folosesc computerele, cât și modelele de afa­ceri.

Scriu o carte pe zi

Code-as-a-service, adică atunci când AI scrie cod, sună ca un plus care schimbă și el jocul. Doar că o abordare creativă similară când vorbim de conturile de pe internet poate fi un minus. Dacă browserele oferă o interfață privind conținutul și codul scrise de oameni, modelele mari de limbaj generează singure con­ținutul, numai că pot ajunge să fabuleze de-a dreptul – uneori iese un nonsens curat (introduc, de pildă, în biografia unei persoane elemente plauzibile, dar neadevărate).

Fabulațiile respective sunt generate adesea de contradicții în blocurile pe care le învață, iar modelele mari de limbaj sunt con­cepute să producă ceva coerent, nu neapărat adevărat. Creează conținut care nu are sens într-o lume din afara textelor și imaginilor pe baza că­rora sunt pregătite. În multe aplicații, tendința de a eli­mina neadevărurile plauzibile este un defect, pentru altele s-ar putea să fie o caracteristică de dorit.

Videoclipurile false (deep fake) cu politicieni sunt doar începutul. Este de așteptat ca modelele mari de limbaj să fie folosite pentru a stabili rețele de atac la ce­rere, cu site-uri web false, roboți Twitter, pagini de Face­book, fluxuri pe TikTok și multe altele. În curând, sursele de de­zinformare vor fi infinite, atenționează Renée Di­Resta, de la Stanford Internet Observatory.

O chestiune care nu este neapărat o amenin­țare existențială. Dar este un aspect problematic. Duce cu gândul la nuvela „Biblioteca lui Babel“, a lui Jose Luis Borges. Biblioteca respectivă conține toate cărțile care au fost vreodată scrise, dar și pe cele care nu au fost niciodată scrise, cărți pline de erori, cărți care sunt niște prostii. Tot ce contează însă este acolo, dar nu poate fi găsit, din cauză că este și foarte mult nonsens.

Bibliotecarii sunt în pragul nebuniei și al dis­perării. Povestea lui Borges devine o poveste cu un substrat tehnologic limpede. Inteligența artificială folo­sește ceea ce știe să facă o tiparniță și recombină un număr fix de simbo­luri în­tr-un număr infinit de mo­­da­lități. Practic, este o altă mo­dalitate de a vedea mo­de­lele mari de limbaj de azi.

Visurile fără sfârșit

Inventarea tiparniței de Johan­nes Gutenberg a imprimat responsabilitate în fiecare fațetă a vieții în secolele ce au urmat. A schimbat relațiile dintre Dumnezeu și oameni, între trecut și prezent. A permis diseminarea în masă a opiniilor, sistematizarea birocrației, acumularea de cunoaștere. A dus la apariția noțiunii de proprietate intelectuală, dar și la posibilitatea de a pirata.

Cărțile tipărite le-au permis erudiților să parcurgă volume vaste de informații, ceea ce anterior nu era posibil. Din acest punct de vedere, analogia cu mode­lele mari de limbaj este evidentă – dacă sunt învățate folosind un corpus dat de cunoștințe, pot genera aproape orice din respectivul corpus. Doar că dobândirea cărții a însemnat mai mult decât acumulare de cunoaștere.

La aproape un secol de la invenția lui Gutenberg, aristocratul francez Michel de Montaigne reușea să aibă o bibliotecă de circa 1.500 de cărți, ceva inimagi­nabil pentru un singur om în acea epocă. Biblioteca nu i-a oferit doar cunoaștere, ci și prieteni. Lovit de gân­duri negre, nimic nu-l ajuta mai mult să uite de ele decât cărțile, după cum scria chiar el.

Ideea de carte i-a oferit și modalitatea de a fi el, într-un fel în care ni­meni nu mai explorase până atunci – să se pună pe sine între coperți. „Cititorule, eu însumi sunt materia cărții mele“, scria Michel de Montaigne. Așa se face că pro­ducția în masă de cărți a făcut ca acestea să de­vină tot mai personale, devenea posibil să scrii o carte doar despre tine. Altfel spus, cărțile au început să producă autori.

Ca mod de a prezenta cunoștințe, modelele mari de limbaj promit să ducă mai departe partea practică și pe cea personală a cărții, în unele cazuri abolindu-le cu totul pe ambele. O aplicație a modelelor mari de limbaj este de a transforma bucăți de cu­noștințe în subiect de conversație pentru chatboturi. Așa că, în loc să mai citești un corpus de text, întrebi o entitate instruită pe baza acelui corp de text și poți obține răs­punsuri bazate pe infor­mațiile conținute de res­pectivul text. De ce să mai dai paginile când poți interoga o lucrare în întregime?

Mode noi

Azi, toată lumea pare să urmeze aceste mo­dele îmbunătățite ca modalități de a accesa cu­noaș­terea. Compania media Bloomberg , din Statele Unite ale Americii, lucrează la BloombergGPT, un model pentru informații financiare. Există primele versiuni ale QuranGPT și ale BibleGPT. Câteva start-upuri oferă servicii care transformă toate documentele de pe hard-diskul utilizatorilor sau din cloud într-o re­sursă pentru consultanță conversațională.

Mulți dintre cei care se numără printre primii utilizatori folosesc chatboturile ca pe niște cutii de rezo­nan­ță. „Este ca un coleg-enciclopedie cu care poți dis­cuta“, explică Jack Clark, de la Anthropic, un start-up care creează mo­dele mari de limbaj.

Este ușor să imaginezi astfel de intermediari, ajung să devină ca o rudă. Ba chiar ar putea deveni un soi de versiune externalizată a vocii interioare a utilizatorilor.

Cercetătorii de la Institutul Australian pentru Învă­țare Automată au construit o primă versiune a unui astfel de asistent pentru compozitoarea și muziciana Laurie Anderson. Asistentul este învățat cu informații bazate parțial pe opera ei, parțial pe cea a defunctului ei soț, Lou Reed. Laurie Anderson spune că nu consi­deră că folosește sistemul ca și când ar colabora cu de­functul ei partener.

Însă alții ar putea ușor să cadă pradă unei astfel de iluzii. Dacă unele chatboturi de­vin, prin extensie, vocea interioară a utilizatorilor lor, atunci vocea va supraviețui utilizatorului când acesta va muri și vor fi unii care vor dori să continue să con­verseze cu acea voce. Cu siguranță, vor fi unii care chiar vor dori ca acele chatboturi personale să fie moștenitoarele lor.

Asemenea aplicații și implicații trimit cu gândul la cla­sicul eseu al lui Sigmund Freud despre straniu. Freud ia ca punct de plecare ideea că straniul este ceva înspăimântător tocmai pentru că este ceva foarte familiar.

Deși cercetătorii în materie de inteligență artificială pot explica meca­nismele creațiilor lor, nu pot încă explica și ce se pe­trece concret în interiorul acestor creații. „Nu există un raționament teoretic suprem care să explice totul“, concluziona recent pe un blog Stephen Wolfram, crea­to­rul motorului de căutare ma­tematic Wolfram Alpha, în încercarea de a explica func­ționarea internă a mo­de­lelor.

Acest aspect ridică două preocupări legate între ele, dar care se exclud reciproc. Una, că AI are o func­ționare internă pe care cercetătorii nu o pot încă percepe. A doua, că este posibil să fii considerat om în so­cietate chiar dacă nu ai niciun fel de înțelegere interioară a propriului sine.

„Aceste modele sunt doar o reprezentare a distribuirii cuvintelor în texte folosite pentru a produce mai multe cuvinte“, explică Emily Bender, profesoară de lingvistică la Universitatea Washington din Seattle și autoarea unei critici la adresa triumfalismului LLM. Modelele nu au niciun fel de înțelegere reală. Fără experiența vieții reale sau a comunicării umane nu pot oferi de­cât abilitatea de a reproduce ca papagalii ce au primit în procesul de învățare. Ceva ce nu poate fi comparat niciodată cu gândul. Cam aceasta este ade­sea percep­ția celor care au ajuns în zona AI prin lingvistică, așa cum este cazul lui Bender.

Dar, pentru cei implicați în comercializarea acestor inteligențe, lucrurile nu sunt așa simple. Sau nu stau deloc așa. Modelele de AI nu pot fi expediate ca fiind niște simpli parteneri de conversație „care flecăresc la comandă“, după cum susține Blaise Agüera y Arcas, liderul unei echipe de la Alphabet, care dezvoltă produse care folosesc AI. Acesta crede că modelele au atribute ce nu pot fi cu adevărat diferențiate de capa­citatea de a ști (înțelege) ce înseamnă de fapt lucrurile despre care „vorbesc“.

Și asta se poate observa, su­ge­­rează el, în capacitatea lor de a alege în mod sigur sensul potrivit atunci când traduc fraze care sunt am­bigue din punct de vedere gramatical sau de a explica glumele.

Dacă Bender are dreptate, atunci putem susține că mai multe tipuri de comportamente despre care oamenii au ajuns să creadă că sunt esențial umane nu sunt așa în mod necesar. A accepta că o inteligență ar­tificială humanoidă (cu aspect uman) poate fi re­dusă la calcule, statistici și nimic mai mult ar putea influența cum gândesc chiar oamenii despre ei.

Freud se portretiza ca fiind un continuator al curen­telor inițiate de Nicolaus Copernic, cel care a scos oa­menii din centrul Universului (vezi heliocentrismul versus geo­centrism), și de Darwin, care l-a scos din po­ziția pri­vilegiată (dată de Dum­nezeu) printre celelalte animale. Contribuția psihanali­ticii, din perspectiva lui Freud, constă în efortul de a do­vedi egoului uman că nu este stăpân nici măcar „în propria casă“.

Dar iată că, în timp, omenirea le-a rezistat și lui Copernic, și lui Darwin, și lui Freud. Oamenii sunt rațio­nali, dar mai cred în zei, spirite și paranormal. Prin urmare, s-ar pu­tea adapta destul de ușor la o vii­toare lume pseu­docognitivă.

Noul vis de aur

Dar dacă Agüera y Arcas, de la Al­pha­bet, are dreptate totuși și ceea ce știința pe­cet­luiește că este lipsit de viață este totuși animat, într-un fel criptic, parțial și emergent la acest moment? Atunci ar fi timpul să facem pentru inteligența artificială ceea ce a crezut Freud că face pentru oameni. Realizând că par­tea conștientă a creierului uman nu este întregul spectacol, Freud s-a uitat în altă parte, în căutarea sur­selor dorinței umane, cea care în definitiv ne dic­tează comportamentul.

Ideea că există motive pentru care oa­menii fac lucruri de care nu sunt conștienți este parte din arhitectura mentală a lumii. Impresia că ar putea fi totuși ceva într-o inteligență artificială și că acel ceva trebuie în­țeles s-ar putea să fie foarte pu­ternică.

Și poate că și dorințele umane ar trebui și ele revizuite. De ce atât de mulți oameni doresc să ajungă la o intimitate cu inteligența artificială? De ce atât de mulți oameni cred că, dat fiind că unele specii au dis­pă­rut evoluând, automat și specia noastră ar păți la fel și pe propria mână sau pe mâna urmașilor noștri? Și unde e dorința aceea puternică de a transforma ra­ționalitatea supraumană în ceva ce nu doar duce la un salt economic, dar ar putea schimba întreaga istorie în bine?

Cursa

Capacitatea de inte­ligență artificială generativă există de ceva vreme. Însă modelele mari de limbaj nu au fost atât de convin­gătoare decât de anul trecut.

  • INVESTIȚII URIAȘE. Legat de boomul modelelor mari de limbaj, care alimen­tează produse precum ChatGPT, Alphabet, Microsoft, Amazon și Meta pompează sume imense pentru a ră­mâne în fruntea inovației.
  • GOOGLE. A anunțat că folo­sește AI pentru a îmbunătăți rata de conversie a recla­melor, dar și pentru a reduce cantitatea de „text toxic“ care intră în modelele AI. Compania se bazează pe două echipe principale de AI – Brain și DeepMind.
  • MICROSOFT. Folosește tehno­logia OpenAI GPT în motorul său de căutare Bing, Office și pentru sistemul de teleconferințe Teams.
  • AMAZON. Își construiește propriile LLM-uri și proiectează cipuri pentru centrele de date pentru învățarea automată.

Acest articol a apărut în numărul 164 al revistei NewMoney

FOTO: Getty

Are o experiență de peste zece ani în jurnalism. A început la agenția națională de presă Rompres, iar în 2006 s-a alăturat echipei care se ocupa de ediția în limba română a publicației americane BusinessWeek. În 2007, a completat echipa de jurnaliști care pornea revista de afaceri Money Express. Domeniile acoperite au variat, de la retail la FMCG, farma, fonduri de investiții, fuziuni și achiziții, IT&C. A realizat interviuri cu cei mai proeminenți oameni de afaceri români, antreprenori locali, dar și cunoscuți oameni de afaceri străini, precum directorul executiv al Microchip, Steve Sanghi, sau fostul director executiv al Sony America, Michael Schulhof. Mimi Noel lucrează ca Account Manager la AMICOM din 2012. La NewMoney, se ocupă de subiectele internaționale.