Totul despre videoclipurile in care Mona Lisa vorbește și alte minciuni

NewMoney 17/06/2019 | 11:37 Digital
Totul despre videoclipurile in care Mona Lisa vorbește și alte minciuni

Filmul începe să bată viața reală. Și nu e un fake news. E ceva ce ar putea fi chiar mai rău.

Acest articol a apărut în numărul 67 (10 – 23 iunie 2019) al revistei NewMoney

Pentru câteva secunde, Mona Lisa a încetat să zâmbească. În schimb, a început să-și miște capul, să clipească și să vor­bească. Și pentru că există dovezi video pe internet, trebuie să fie și adevărat. Și-ntr-un fel, chiar este. Un grup de cerce­tă­tori ruși și-a făcut public luna trecută un set de imagini obținute cu ajutorul unui algoritm AI (inteligență artificială) care a învățat să creeze succesiuni video realiste de expresii faciale, plecând de la o singură imagine fixă (fotografie).

În unele exemple, rezultatele sunt impresionante și e greu să distingi falsul de original. Creatorii acestor imagini în miș­care le numesc „capete vorbitoare fotorealiste“, dar pentru restul lumii par să nu fie altceva decât o nouă versiune a infamelor deepfake-uri.

DACĂ E TRUMP, E BELGIA. Prin luna mai a anului trecut, un videoclip în care Donald Trump le sugera belgienilor să se retragă din Acordul de la Paris în domeniul schimbărilor climatice a fost postat pe paginile de Facebook și de Twitter ale unui partid socialist local, Socialistische Partij Anders (sp.a). „Așa cum știți, am avut tupeul (într-o prea pudică traducere a originalului „balls“ folosit de președin­tele american, n.r.) să mă retrag din acord și asta ar trebui să faceți și voi“, declama un Trump parcă mai portocaliu ca nicio­dată la față. Chiar și în absența unui stat paralel care să dicteze jocurile de culise, sugestia în cauză a provocat mii de comentarii, majoritatea criticând incisiv tupeul fără perdea al președintelui ales al SUA de a se amesteca în politica de mediu a Belgiei. Numai că toată această indignare colectivă a fost îndreptată într-o direcție complet greșită. Așa cum s-a dez­văluit ulterior, hulitul discurs nu a fost alt­ceva decât o farsă high-tech. Și nici mă­car una din cale afară de migăloasă.

Cei de la sp.a au recunoscut că au comandat unui studio video să producă un deepfake – denumirea generică pentru în­registrări audio sau video aparent reale, create cu ajutorul inteligenței artificiale, în care cineva apare spunând sau făcând ceva ce, de fapt, nu a spus sau a făcut în rea­litate.

Intenția micului partid de stânga a fost să folosească falsul videoclip pentru a atrage atenția oamenilor și a-i redirecționa apoi către o petiție online prin care soli­cita guvernului belgian să urgenteze lua­rea unor măsuri de protecție a mediului.

La rândul lor, creatorii videoclipului spuneau că au lăsat suficiente indicii care să pună semne serioase de întrebare în ceea ce privește autenticitatea acestuia, începând de la mișcările nefirești ale buzelor presupusului Donald Trump și terminând cu calitatea generală a înregis­trării.

A rămas însă limpede că echipa de comunicare a partidului a subestimat în mod flagrant puterea acestui fals. Dacă nu cumva a apreciat greșit și capacitatea audienței de a se uita strâmb și a judeca apoi drept. Dincolo de toate astea însă, sp.a a oferit – cel mai probabil fără să-și fi propus acest lucru – un exemplu profund tulburător al modului în care politicul și tehnologia își pot da mâna pentru a infesta un ecosistem informațional deja vul­nerabil, așa cum este cel pe care îl știm și trăim cu toții acum.

PRELUDIUL. Termenul deepfake este o com­binație între „deep learning“ (învă­țare profundă, un tip de algoritm AI) și „fake“ (fals). Tehnica din spatele său – de­­nu­mită Generative Adversarial Network (GAN) – a fost dezvoltată în 2014 de Ian Goodfellow, pe atunci absolvent al unui doctorat în machine learning la Universitatea din Montréal, în momentul de față director în divizia de proiecte speciale a companiei Apple.

Într-o explicație în care detaliile tehnice de specialitate tind spre zero, algoritmul care stă la baza unui video deepfake suprapune mișcările și cuvintele unei persoane (A) peste cele ale personajului-fals(ificat) (B). Practic, AI generează un nou video, în care B se mișcă și vorbește având ca re­fe­rință A. Cu cât algoritmul învață din mai multe înregistrări video, cu atât rezultatul final este mai realist și mai greu de identi­ficat ca fals.

În cazul fotografiilor, un algoritm GAN care a „văzut“ câteva sute de fotografii ale președintelui Donald Trump, de exemplu, va putea genera o imagine care să nu fie o copie a niciuneia dintre ele, însă la fel de realistă ca oricare dintre sursele originale. Lucrurile funcționează la fel și în ca­zul înregistrărilor audio sau chiar al textelor scrise.

Utilizarea acestei tehnici de învățare a ma­șinilor a fost limitată, în cea mai mare parte, la comunitatea de cercetare AI. Pe la sfârșitul lui 2017 însă, un utilizator Reddit a început să posteze sub pseudonimul Deepfakes mai multe videoclipuri pornografice în care apăreau staruri de la Holly­wood precum Gal Gadot, Emma Watson, Katy Perry, Taylor Swift sau Scarlett Johansson. Pentru a le crea, Deepfakes a fo­losit Ten­sorFLow, platforma open source de ma­chine learning a Google. Reddit a reac­ționat după o vreme și le-a interzis pentru că încălcau politica sa împotriva pornografiei involuntare. Numai că, până să se ajungă în acest punct, Deepfakes lansase deja FakeApp, o aplicație user-friendly cu ajutorul căruia până și cel mai atehnic din­­tre utilizatori poate falsifica după bu­nul său plac conținut media.

Brusc, FakeApp a vulgarizat puterea GAN, iar noua tehnologie a fost văzută din acel moment ca o amenințare imi­nentă la adresa democrației, dacă nu chiar ca un sfârșit al adevărului discursului public.

„Software-urile de manipulare video sunt periculoase la scară geopolitică“, spunea recent senatorul american Ben Sasse, solicitând o acțiune „rapidă și de­cisivă“ din partea Congresului. Dincoace de Ocean, Bruxelles-ul a publicat anul tre­cut o strategie pentru combaterea dezin­for­mării, inclusiv a deepfake-urilor, care propune, printre altele, inclusiv crearea unei rețele europene independente de persoane care să verifice faptele pentru a analiza sursele și a procesa conținutul informațiilor.

REALITĂȚI PARALELE. „Când am auzit prima dată de deepfake, am început să mă gândesc la orașul meu natal, Baltimore. În 2015, după moartea lui Freddie Gray (bărbatul de culoare, în vârstă de 25 de ani, arestat pentru deținerea unui presupus cuțit și intrat în comă în timp ce era transportat cu o dubă a poliției, mort o săptămână mai târziu din cauza unor leziuni la coloana vertebrală, n.r.), între­gul oraș era un butoi de pulbere. Și am în­ceput să mă întreb ce s-ar fi putut în­tâmpla dacă ar fi apărut un deepfake cu șeful poliției făcând comentarii rasiste. Întregul loc ar fi explodat“, povestea pentru The Guardian Danielle Citron, profesor la Universitatea Maryland, expert in­ter­național în intimitatea informațiilor per­sonale, libertatea de expresie și drepturi civile. În opinia acesteia, proliferarea deepfake-urilor într-un climat politic deja polarizat ar putea eroda catastrofal încrederea între diferitele facțiuni ale societății.

Articol vizibil în întregime doar pe bază de abonament.