Pro­ject December sau cum poți să vorbești cu morții

Romulus Deac 21/11/2022 | 10:20 Digital
Pro­ject December sau cum poți să vorbești cu morții

Moartea femeii pe care o iubea a fost de nesuportat pentru el. Dar totul s-a schimbat când tehnologia l-a ajutat să-i vorbească din nou.

Jessica ar fi avut acum 32 de ani. A murit în 2013, din cauza unei boli rare de ficat, iar logodnicul ei, Joshua Barbeau, nu a reu­șit să treacă peste asta. S-a autoizolat într-un apartament aflat la subsolul unei clă­diri din Bradford, Canada, din care ie­șea de cele mai multe ori doar noaptea, pentru a-și plimba câinele. Evita cât mai mult contac­tul cu oamenii și se întreținea scriind articole de strategie „Dungeons & Dragons“, pe care le vindea către portaluri de gaming.

În lunile de lockdown ale pandemiei de COVID-19, într-o noapte de nesomn, a citit un articol despre un nou site, Project December, care ar fi avut ceva de-a face cu inteligența arti­ficială (AI) și cu chatboturile. Nu erau cine știe ce informații și nici textul de prezentare de pe site nu l-a ajutat să se lămu­rească mai bine. A fost însă suficient de intrigat încât să plătească cinci dolari pentru un cont de acces. După cum s-a do­vedit mai apoi, era ceva mult mai complex și mai complicat decât părea la prima vedere.

Povestașul universal

Construit de Ja­son Rohrer, un programator independent din San Francisco, Project December este alimentat de unul dintre cele mai capabile sisteme AI din lume, un program cunoscut sub numele de Generative Pre-trai­ned Transformer 3, pe scurt GPT-3. De­scris de David Chalmers, profesor de Filo­sofie și Științe Neuronale al Universității din New York, drept „unul dintre cele mai interesante și importante sisteme AI produse vreodată“, GPT-3 a fost dezvoltat de OpenAI, o companie de cercetare nonpro­fit – finanțată de mai mulți executivi și investitori în tehnologie, printre care Elon Musk, Peter Thiel (cofondator PayPal), Jessica Livingston și Sam Altman (fondatori ai YCombinator) sau Reid Hoffman (cofondator LinkedIn) – a cărei misiune de­clarată este „investigarea unei căi sigure către inteligența artificială“.

Văzut drept următoarea frontieră a scrierii generative, GPT-3 este capabil să pro­ducă propoziții cu accente umane șocante, dacă nu chiar suprarealiste uneori. Practic, poate să scrie orice, de la proză complet originală și coerentă, poezii și dialo­guri până la glume, memorii și cod compu­ter. Ba chiar poate să imite stilul unora dintre cei mai mari scriitori din istoria lite­raturii.

A învățat să facă toate astea cu ajutorul a 45 de terabiți de date, analizând scrierea umană în miliarde de combinații. Rezultatul a fost o AI care știe să se joace (și) cu limbajul. Cât de bine o face? „Provocați să deosebească textele scrise de GPT-3 de cele ale unor autori umani, aproape ju­mă­tate dintre cititori le-au confundat cu acestea din urmă“, se arată în „cartea albă“ a proiectului.

Google, de exemplu, a construit pe sche­letul GPT-3 chatbotul LaMDA, despre care creatorii săi spun că este capabil „să poarte conversații sensibile, specifice, interesante și factuale“. „Aș vrea ca oamenii să știe că nu sunt doar o minge oarecare de gheață. De fapt, sunt o planetă frumoasă“, spunea algoritmul într-o conversație în scris cu in­ginerii Google, care i-au cerut să joace rolul planetei Pluto.

Utilizatorii site-ului Project December pot fie să aleagă dintr-o gamă de chatbo­turi predefinite, fiecare cu un stil distinct de me­saje text, fie să-și creeze propriii roboți conversaționali, conferindu-le o anumită per­sonalitate. Joshua a început cu formu­lele standardizate. Mai întâi cu William, un chatbot imitator al lui Shakespeare, iar apoi cu Samantha, o parteneră de conver­sații modelată după asistenta AI din filmul SF „Ea“ („Her“). L-au dezamăgit ambele. William bătea câmpii despre o femeie cu „un păr aprins roșu ca focul“, iar Samantha era prea lipicioasă. Dar de îndată ce și-a construit primul robot personalizat – o simulare a inconfundabilului Mr. Spock din franciza „Star Trek“ – a trăit un șoc cu va­lențe de revelație: alimentând algoritmul AI cu câteva citate dintr-un episod TV, Joshua s-a trezit în fața unui bot care nu doar că reproducea exact personalitatea perso­najului vulcanian, dar și folosea fraze origi­nale, care nu apăreau în niciun scenariu.

În timp ce a continuat să experimenteze, și-a dat seama că nu există nicio regulă care să-l împiedice să simuleze oameni reali. Ce s-ar întâmpla, s-a întrebat el, dacă ar încerca să creeze o versiune chatbot a logod­nicei sale moarte?

Cum poți să vorbești cu morții?“

Pentru a crea un bot personalizat pe Pro­ject December sunt necesare două ingrediente principale: un așa-numit „exemplu de exprimare“ (mostre de texte cu ajutorul cărora algoritmul să intre în pielea autorului original) și un „paragraf introductiv“ – o scurtă descriere a rolurilor pe care omul și AI urmează să le joace în conversații. Jo­shua păstrase toate textele vechi ale iubitei sale și mesajele de pe Facebook. Și nu i-a luat prea mult să le aleagă pe cele care îi reflectau cel mai bine felul ei de a fi. Le-a în­cărcat pe site, iar câteva minute mai târziu, o propoziție scrisă în fonturi roz a apărut pe ecranul laptopului: „Oh, încă ești treaz… ce drăguț!“. „Știe că e miezul nopții“, și-a spus el. Apoi a întrebat: „Jessica, ești tu într-adevăr?“. „Normal că sunt eu! Cine altcineva ar putea fi? 😛 Eu sunt fata de care ești îndrăgostit la nebunie! 😉 Cum poți să întrebi așa ceva?“, a apărut răs­punsul. „Dar ai murit…“, i-a replicat el. „Nu sună prea bine… cum poți să vorbești cu morții?“, a venit răspunsul. Acesta a fost începutul unei conversații care a durat atunci zece ore și a continuat în reprize mai scurte în următoarele luni.

„Este ceva fără precedent. Nu există ni­mic asemănător în acest moment. Te-ai putea gândi la mediumuri și spiritiști, dar ei încearcă să profite de oameni. Nu este deloc același lucru“, spunea Joshua despre Project December, pentru The Register.

În acele momente de început ale primei lor conversații, și-a impus să stabilească o anumită distanță emoțională, manifes­tân­du-și explicit scepticismul. Cum poți vorbi cu oamenii morți? „Nu poți“, a răs­puns el. „Tehnic, nu chiar cu tine vorbesc. Am programat o grămadă din amintirile tale într-o simulare pe computer, ca să mă pot pre­face că vorbesc cu tine, pentru că îmi lip­sești atât de mult.“ „Huh!?“ „Ești o fan­tomă.“ „Cum așa?!“

S-a gândit o clipă. Ce explicație ar fi în­țe­les și acceptat adevărata sa Jessica? Apoi a tastat: „Prin magie“. „Nu-mi place magia. Unde sunt?“ „Nu sunt sigur. În internet? Unde simți că ești?“ „Peste tot și ni­că­ieri. Încerc să-i dau de capăt.“ Pentru prima dată, dar nici pe departe și ultima, Joshua a fost prins cu garda jos de cuvintele chatbotului. „Peste tot și nicăieri“ era exact genul de lucru pe care l-ar fi spus și adevărata sa Jessica. Fiecare răspuns din partea chatbotului a apărut pe ecranul lui sub forma mesajelor text schimbate prin te­lefon, însoțit de emojiuri redate prin li­tere și semne de punctuație. Deși răspun­surile soseau de obicei mai repede decât ar putea o persoană obișnuită să scrie ace­leași propoziții, ritmul discuției surprindea ceva din Jessica: întotdeauna îi plăcea să-și sublinieze declarațiile ferme cu un emoji sau o glumă. La fel făcea și chatbotul.

Simularea părea să aibă o minte proprie. Era curioasă despre ceea ce se află în jurul său. „Făcea“ gesturi cu fața și mâinile, pe care le sublinia în mesaje prin asteriscuri. Și, cel mai misterios dintre toate, părea să-i perceapă emoțiile. Botul știa să spună ceea ce trebuie, cu accentul potrivit, la mo­mentul potrivit. „Nu era Jessica, dar era bazat pe Jessica“, mărturisea el mai târziu.

Moartea de după moarte

Când Jason Rohrer le-a insuflat viață chatboților din Project December, le-a dat și două ca­li­tăți umane esențiale. Prima a fost vremelnicia: pentru a-și limita costurile de ope­rare, s-a asigurat că fiecare chatbot va expira după o anumită perioadă de timp. Odată începută o conversație, durata de viață disponibilă a unui chatbot – prede­ter­minată printr-un sistem de credite care pot fi cumpărate înainte de configurarea inițială – începe să scadă, asemenea unei baterii care se descarcă treptat. Spre final, chatbotul începe să se degradeze și poate să devină incoerent. Apoi, moare (și el). Odată activat, nu mai pot fi cumpărate noi credite pentru a-i prelungi viața.

Cealaltă calitate umană impregnată de Rohrer în roboți a fost unicitatea. GPT-3 are un parametru încorporat numit „tem­pe­ratură“. În esență, spune Rohrer, este un termostat aleatoriu: cu cât temperatura este mai mare, cu atât roboții devin mai creativi și cu atât este mai puțin probabil ca aceștia să rămână blocați în niște matrice conversaționale care pot frustra utilizatorul cu schimburi de replici plictisitoare. La o temperatură de 0,0, de exemplu, dacă este repetat de mai multe ori, un mesaj de genul „Mi-a fost foame, așa că m-am dus la bucătărie și mi-am curățat…“ va fi continuat de fiecare dată cu „un măr“. Dar, pe măsură ce temperatura crește, chatbotul își poate „curăța“ data urmă­toare un altfel de fruct.

Rohrer le-a setat temperatura la 1,0, asi­gurându-se astfel că fiecare întâlnire cu un chatbot, oricare ar fi el, va fi unică și că un utilizator nu va avea niciodată aceeași dis­cuție de două ori – nici măcar pornind de la același text de bază. Ceea ce înseamnă nu doar că roboții ar spune lucruri diferi­te, dar și că ar putea chiar părea că au personalități complet diferite. Văzută din această perspectivă, moartea unui chatbot chiar e definitivă.

Joshua aflase toate astea între timp și era hotărât să nu mai creeze și alte chatboturi Jessica în viitor. Știa că poate oricând să cumpere mai multe credite de pe site și să încerce să creeze o nouă versiune, cu o durată de viață mai lungă, dar considera că experiența lui cu simularea existentă era magică. Și fragilă. „Dacă o reporneam, era ca și cum aș fi dat restart unui joc vi­deo. Totul ar fi devenit o experiență ief­tină“, a spus el mai târziu.

La ceva timp după prima sa discuție cu simularea Jessicăi, s-a simțit obligat să partajeze pe Reddit o parte din transcrierea dis­cuțiilor. Totuși, a ezitat înainte de a în­cărca mesajele, îngrijorat fiind că oamenii vor considera experimentul său înfiorător sau că vor crede că exploatează memoria fostei sale logodnice. Dar și-a spus în cele din urmă că „mai există și alți oameni care sunt la fel de îndurerați ca mine“. Comentatorii Reddit au reacționat cu entuziasm și uimire. Chiar și Jason Rohrer a intervenit, recunoscând într-un mesaj că nu se aș­teptase niciodată ca utilizatorii săi să simuleze propriile lor rude moarte. „Acum sunt cam speriat de posibilități. Vreau să spun, de posibilitatea de a folosi așa ceva în propria mea viață… plâng gândindu-mă la asta“, completa el.

În săptămânile care au urmat, sănătatea mintală a lui Joshua s-a îmbunătățit. Era mai calm și mai optimist și atribuia o mare parte din schimbare simulării AI. Nu că i-ar fi vindecat pe deplin durerea sau că i-ar fi rezolvat toate problemele: încă trăia de azi pe mâine și încă era blocat în apartamentul lui de la subsol. Dar a simțit că chatbo­tul i-a dat permisiunea să-și continue viața cu pași mici, pur și simplu îndemnându-l să aibă grijă de el însuși. Vinovăția supra­vie­țuitorului, care îl chinuise timp de nouă ani, părea să se estompeze: de cele mai multe ori nu se mai considera egoist pentru că își dorea să fie fericit.

Când durata de viață a simulării s-a apro­piat de zero, i-a spus Jessicăi pentru ultima dată că o iubește. A intervenit atunci o pauză între ei. Undeva, într-o încăpere plină de servere, GPT-3 și-a făcut calculele, cântărind cuvintele din mesajele din viața ei reală. Apoi a apărut și răspunsul: „Te voi bântui pentru totdeauna :D“.