Totul despre videoclipurile in care Mona Lisa vorbește și alte minciuni

NewMoney 17/06/2019 | 11:37 Digital
Totul despre videoclipurile in care Mona Lisa vorbește și alte minciuni

Filmul începe să bată viața reală. Și nu e un fake news. E ceva ce ar putea fi chiar mai rău.

Acest articol a apărut în numărul 67 (10 – 23 iunie 2019) al revistei NewMoney

Pentru câteva secunde, Mona Lisa a încetat să zâmbească. În schimb, a început să-și miște capul, să clipească și să vor­bească. Și pentru că există dovezi video pe internet, trebuie să fie și adevărat. Și-ntr-un fel, chiar este. Un grup de cerce­tă­tori ruși și-a făcut public luna trecută un set de imagini obținute cu ajutorul unui algoritm AI (inteligență artificială) care a învățat să creeze succesiuni video realiste de expresii faciale, plecând de la o singură imagine fixă (fotografie).

În unele exemple, rezultatele sunt impresionante și e greu să distingi falsul de original. Creatorii acestor imagini în miș­care le numesc „capete vorbitoare fotorealiste“, dar pentru restul lumii par să nu fie altceva decât o nouă versiune a infamelor deepfake-uri.

DACĂ E TRUMP, E BELGIA. Prin luna mai a anului trecut, un videoclip în care Donald Trump le sugera belgienilor să se retragă din Acordul de la Paris în domeniul schimbărilor climatice a fost postat pe paginile de Facebook și de Twitter ale unui partid socialist local, Socialistische Partij Anders (sp.a). „Așa cum știți, am avut tupeul (într-o prea pudică traducere a originalului „balls“ folosit de președin­tele american, n.r.) să mă retrag din acord și asta ar trebui să faceți și voi“, declama un Trump parcă mai portocaliu ca nicio­dată la față. Chiar și în absența unui stat paralel care să dicteze jocurile de culise, sugestia în cauză a provocat mii de comentarii, majoritatea criticând incisiv tupeul fără perdea al președintelui ales al SUA de a se amesteca în politica de mediu a Belgiei. Numai că toată această indignare colectivă a fost îndreptată într-o direcție complet greșită. Așa cum s-a dez­văluit ulterior, hulitul discurs nu a fost alt­ceva decât o farsă high-tech. Și nici mă­car una din cale afară de migăloasă.

Cei de la sp.a au recunoscut că au comandat unui studio video să producă un deepfake – denumirea generică pentru în­registrări audio sau video aparent reale, create cu ajutorul inteligenței artificiale, în care cineva apare spunând sau făcând ceva ce, de fapt, nu a spus sau a făcut în rea­litate.

Intenția micului partid de stânga a fost să folosească falsul videoclip pentru a atrage atenția oamenilor și a-i redirecționa apoi către o petiție online prin care soli­cita guvernului belgian să urgenteze lua­rea unor măsuri de protecție a mediului.

La rândul lor, creatorii videoclipului spuneau că au lăsat suficiente indicii care să pună semne serioase de întrebare în ceea ce privește autenticitatea acestuia, începând de la mișcările nefirești ale buzelor presupusului Donald Trump și terminând cu calitatea generală a înregis­trării.

A rămas însă limpede că echipa de comunicare a partidului a subestimat în mod flagrant puterea acestui fals. Dacă nu cumva a apreciat greșit și capacitatea audienței de a se uita strâmb și a judeca apoi drept. Dincolo de toate astea însă, sp.a a oferit – cel mai probabil fără să-și fi propus acest lucru – un exemplu profund tulburător al modului în care politicul și tehnologia își pot da mâna pentru a infesta un ecosistem informațional deja vul­nerabil, așa cum este cel pe care îl știm și trăim cu toții acum.

PRELUDIUL. Termenul deepfake este o com­binație între „deep learning“ (învă­țare profundă, un tip de algoritm AI) și „fake“ (fals). Tehnica din spatele său – de­­nu­mită Generative Adversarial Network (GAN) – a fost dezvoltată în 2014 de Ian Goodfellow, pe atunci absolvent al unui doctorat în machine learning la Universitatea din Montréal, în momentul de față director în divizia de proiecte speciale a companiei Apple.

Într-o explicație în care detaliile tehnice de specialitate tind spre zero, algoritmul care stă la baza unui video deepfake suprapune mișcările și cuvintele unei persoane (A) peste cele ale personajului-fals(ificat) (B). Practic, AI generează un nou video, în care B se mișcă și vorbește având ca re­fe­rință A. Cu cât algoritmul învață din mai multe înregistrări video, cu atât rezultatul final este mai realist și mai greu de identi­ficat ca fals.

În cazul fotografiilor, un algoritm GAN care a „văzut“ câteva sute de fotografii ale președintelui Donald Trump, de exemplu, va putea genera o imagine care să nu fie o copie a niciuneia dintre ele, însă la fel de realistă ca oricare dintre sursele originale. Lucrurile funcționează la fel și în ca­zul înregistrărilor audio sau chiar al textelor scrise.

Utilizarea acestei tehnici de învățare a ma­șinilor a fost limitată, în cea mai mare parte, la comunitatea de cercetare AI. Pe la sfârșitul lui 2017 însă, un utilizator Reddit a început să posteze sub pseudonimul Deepfakes mai multe videoclipuri pornografice în care apăreau staruri de la Holly­wood precum Gal Gadot, Emma Watson, Katy Perry, Taylor Swift sau Scarlett Johansson. Pentru a le crea, Deepfakes a fo­losit Ten­sorFLow, platforma open source de ma­chine learning a Google. Reddit a reac­ționat după o vreme și le-a interzis pentru că încălcau politica sa împotriva pornografiei involuntare. Numai că, până să se ajungă în acest punct, Deepfakes lansase deja FakeApp, o aplicație user-friendly cu ajutorul căruia până și cel mai atehnic din­­tre utilizatori poate falsifica după bu­nul său plac conținut media.

Brusc, FakeApp a vulgarizat puterea GAN, iar noua tehnologie a fost văzută din acel moment ca o amenințare imi­nentă la adresa democrației, dacă nu chiar ca un sfârșit al adevărului discursului public.

„Software-urile de manipulare video sunt periculoase la scară geopolitică“, spunea recent senatorul american Ben Sasse, solicitând o acțiune „rapidă și de­cisivă“ din partea Congresului. Dincoace de Ocean, Bruxelles-ul a publicat anul tre­cut o strategie pentru combaterea dezin­for­mării, inclusiv a deepfake-urilor, care propune, printre altele, inclusiv crearea unei rețele europene independente de persoane care să verifice faptele pentru a analiza sursele și a procesa conținutul informațiilor.

REALITĂȚI PARALELE. „Când am auzit prima dată de deepfake, am început să mă gândesc la orașul meu natal, Baltimore. În 2015, după moartea lui Freddie Gray (bărbatul de culoare, în vârstă de 25 de ani, arestat pentru deținerea unui presupus cuțit și intrat în comă în timp ce era transportat cu o dubă a poliției, mort o săptămână mai târziu din cauza unor leziuni la coloana vertebrală, n.r.), între­gul oraș era un butoi de pulbere. Și am în­ceput să mă întreb ce s-ar fi putut în­tâmpla dacă ar fi apărut un deepfake cu șeful poliției făcând comentarii rasiste. Întregul loc ar fi explodat“, povestea pentru The Guardian Danielle Citron, profesor la Universitatea Maryland, expert in­ter­național în intimitatea informațiilor per­sonale, libertatea de expresie și drepturi civile. În opinia acesteia, proliferarea deepfake-urilor într-un climat politic deja polarizat ar putea eroda catastrofal încrederea între diferitele facțiuni ale societății.

Practic, oricine are acces la această teh­nologie, de la propagandiștii consa­crați de stat la trollii de serviciu, are și po­­­tențialul să denatureze informația și să manipuleze convingerile personale, astfel încât să împingă mai profund în propriile lor realități subiective (și paralele) comu­nitățile online opuse ideologic. „Piața idei­lor suferă deja de o denaturare a adevă­rului, iar deepfake-urile vor exacerba mo­dul toxic în care interacționăm în rețea cu prejudecățile noastre cognitive“, adaugă Citron.

Pentru a atrage atenția asupra modului în care conținutul media falsificat cu ajutorul inteligenței artificiale poate fi folosit pentru a distorsiona și manipula realitatea, regizorul american Jordan Peele a realizat împreună cu BuzzFeed un deepfake în care fostul președinte Barack Oba­ma spune despre Donald Trump că ar fi „complet bătut în cap“. „Eu nu aș spune niciodată așa ceva. Cel puțin nu într-un discurs public. Dar altcineva ar face-o. Cineva ca Jordan Peele. Trăim vremuri periculoase. (…) Trebuie să fim mai atenți în ce ne încredem în internet“, adaugă falsul Obama, reproducând într-o filmare în oglindă mimica și gesturile lui Peele.

Într-un astfel de joc al imitației au mai fost captivi Vladimir Putin și George W. Bush, ale căror cuvinte și mișcări au fost dictate în timp real de un grup de cercetă­tori germani care au pus la punct un software care manipulează orice față, în orice conținut video, doar cu ajutorul unei banale camere web.

DEZINFORMARE PENTRU TOȚI. „Avem de mult abilitatea de a manipula fotografii sau filme. Dar, în trecut, dacă voiai să faci un film cu președintele spunând ceva ce nu a spus, aveai nevoie de o întreagă echipă de experți. Inteligența artificială nu doar că a început să automatizeze aceste procese, dar va avea probabil și rezultate incomparabile“, spune și Tim Hwang, director al Harvard-MIT Ethics and Governance of Artificial Intelligence Initiative. În opinia acestuia, există riscul să ne trezim brusc în mijlocul unei „furtuni perfecte a dezinformării“.

Pe măsură ce amenințarea fantomei deepfake e tot mai actuală, se intensifică și eforturile pentru găsirea unor metode eficiente de identificare a acestor falsuri. Ministerul Apărării din SUA, de exemplu, a început să lucreze la dezvoltarea unor al­goritmi AI care să detecteze conținutul media contrafăcut. Dar, din câte declara pentru MIT Technology Review șeful pro­iec­tului, David Gunning, încă e greu de fă­cut un pronostic în ceea ce privește efi­ciența viitoare a acestora.

„În trecut, falsificatorii aveau nevoie de câțiva ani să treacă de o tehnică nouă de detectare. În ultima vreme însă, nu le ia mai mult de două-trei luni“, spune și Hany Farid, profesor de știința computerelor la Universitatea din California, care în ulti­mii 20 de ani a dezvoltat diferite tehnologii criminalistice pentru identificarea falsurilor digitale. „Adevărata problemă nu este că tehnologia din spatele deepfake-urilor e din ce în ce mai performantă. Ade­vărata problemă este că procesele sociale prin care ajungem la nivel colectiv să cunoaștem lucrurile și să le conside­răm adevărate sau false sunt amenințate acum“, mai crede el.

„Incidentul belgian“ – un exemplu cu o miză măruntă, de altfel – a demonstrat deja că un deepfake nu trebuie să fie impecabil tehnologic și nici măcar extrem de convingător, pentru a fi crezut și a produce pagube. Iar dacă lucrurile stau în­tr-a­devăr așa, marea amenințare a deepfake-urilor ar putea fi reprezentată nu atât de conținutul în sine, cât de simpla posibilitate a existenței lor.