Totul despre videoclipurile in care Mona Lisa vorbește și alte minciuni
Filmul începe să bată viața reală. Și nu e un fake news. E ceva ce ar putea fi chiar mai rău.
Acest articol a apărut în numărul 67 (10 – 23 iunie 2019) al revistei NewMoney
Pentru câteva secunde, Mona Lisa a încetat să zâmbească. În schimb, a început să-și miște capul, să clipească și să vorbească. Și pentru că există dovezi video pe internet, trebuie să fie și adevărat. Și-ntr-un fel, chiar este. Un grup de cercetători ruși și-a făcut public luna trecută un set de imagini obținute cu ajutorul unui algoritm AI (inteligență artificială) care a învățat să creeze succesiuni video realiste de expresii faciale, plecând de la o singură imagine fixă (fotografie).
În unele exemple, rezultatele sunt impresionante și e greu să distingi falsul de original. Creatorii acestor imagini în mișcare le numesc „capete vorbitoare fotorealiste“, dar pentru restul lumii par să nu fie altceva decât o nouă versiune a infamelor deepfake-uri.
DACĂ E TRUMP, E BELGIA. Prin luna mai a anului trecut, un videoclip în care Donald Trump le sugera belgienilor să se retragă din Acordul de la Paris în domeniul schimbărilor climatice a fost postat pe paginile de Facebook și de Twitter ale unui partid socialist local, Socialistische Partij Anders (sp.a). „Așa cum știți, am avut tupeul (într-o prea pudică traducere a originalului „balls“ folosit de președintele american, n.r.) să mă retrag din acord și asta ar trebui să faceți și voi“, declama un Trump parcă mai portocaliu ca niciodată la față. Chiar și în absența unui stat paralel care să dicteze jocurile de culise, sugestia în cauză a provocat mii de comentarii, majoritatea criticând incisiv tupeul fără perdea al președintelui ales al SUA de a se amesteca în politica de mediu a Belgiei. Numai că toată această indignare colectivă a fost îndreptată într-o direcție complet greșită. Așa cum s-a dezvăluit ulterior, hulitul discurs nu a fost altceva decât o farsă high-tech. Și nici măcar una din cale afară de migăloasă.
Cei de la sp.a au recunoscut că au comandat unui studio video să producă un deepfake – denumirea generică pentru înregistrări audio sau video aparent reale, create cu ajutorul inteligenței artificiale, în care cineva apare spunând sau făcând ceva ce, de fapt, nu a spus sau a făcut în realitate.
Intenția micului partid de stânga a fost să folosească falsul videoclip pentru a atrage atenția oamenilor și a-i redirecționa apoi către o petiție online prin care solicita guvernului belgian să urgenteze luarea unor măsuri de protecție a mediului.
La rândul lor, creatorii videoclipului spuneau că au lăsat suficiente indicii care să pună semne serioase de întrebare în ceea ce privește autenticitatea acestuia, începând de la mișcările nefirești ale buzelor presupusului Donald Trump și terminând cu calitatea generală a înregistrării.
A rămas însă limpede că echipa de comunicare a partidului a subestimat în mod flagrant puterea acestui fals. Dacă nu cumva a apreciat greșit și capacitatea audienței de a se uita strâmb și a judeca apoi drept. Dincolo de toate astea însă, sp.a a oferit – cel mai probabil fără să-și fi propus acest lucru – un exemplu profund tulburător al modului în care politicul și tehnologia își pot da mâna pentru a infesta un ecosistem informațional deja vulnerabil, așa cum este cel pe care îl știm și trăim cu toții acum.
PRELUDIUL. Termenul deepfake este o combinație între „deep learning“ (învățare profundă, un tip de algoritm AI) și „fake“ (fals). Tehnica din spatele său – denumită Generative Adversarial Network (GAN) – a fost dezvoltată în 2014 de Ian Goodfellow, pe atunci absolvent al unui doctorat în machine learning la Universitatea din Montréal, în momentul de față director în divizia de proiecte speciale a companiei Apple.
Într-o explicație în care detaliile tehnice de specialitate tind spre zero, algoritmul care stă la baza unui video deepfake suprapune mișcările și cuvintele unei persoane (A) peste cele ale personajului-fals(ificat) (B). Practic, AI generează un nou video, în care B se mișcă și vorbește având ca referință A. Cu cât algoritmul învață din mai multe înregistrări video, cu atât rezultatul final este mai realist și mai greu de identificat ca fals.
În cazul fotografiilor, un algoritm GAN care a „văzut“ câteva sute de fotografii ale președintelui Donald Trump, de exemplu, va putea genera o imagine care să nu fie o copie a niciuneia dintre ele, însă la fel de realistă ca oricare dintre sursele originale. Lucrurile funcționează la fel și în cazul înregistrărilor audio sau chiar al textelor scrise.
Utilizarea acestei tehnici de învățare a mașinilor a fost limitată, în cea mai mare parte, la comunitatea de cercetare AI. Pe la sfârșitul lui 2017 însă, un utilizator Reddit a început să posteze sub pseudonimul Deepfakes mai multe videoclipuri pornografice în care apăreau staruri de la Hollywood precum Gal Gadot, Emma Watson, Katy Perry, Taylor Swift sau Scarlett Johansson. Pentru a le crea, Deepfakes a folosit TensorFLow, platforma open source de machine learning a Google. Reddit a reacționat după o vreme și le-a interzis pentru că încălcau politica sa împotriva pornografiei involuntare. Numai că, până să se ajungă în acest punct, Deepfakes lansase deja FakeApp, o aplicație user-friendly cu ajutorul căruia până și cel mai atehnic dintre utilizatori poate falsifica după bunul său plac conținut media.
Brusc, FakeApp a vulgarizat puterea GAN, iar noua tehnologie a fost văzută din acel moment ca o amenințare iminentă la adresa democrației, dacă nu chiar ca un sfârșit al adevărului discursului public.
„Software-urile de manipulare video sunt periculoase la scară geopolitică“, spunea recent senatorul american Ben Sasse, solicitând o acțiune „rapidă și decisivă“ din partea Congresului. Dincoace de Ocean, Bruxelles-ul a publicat anul trecut o strategie pentru combaterea dezinformării, inclusiv a deepfake-urilor, care propune, printre altele, inclusiv crearea unei rețele europene independente de persoane care să verifice faptele pentru a analiza sursele și a procesa conținutul informațiilor.
REALITĂȚI PARALELE. „Când am auzit prima dată de deepfake, am început să mă gândesc la orașul meu natal, Baltimore. În 2015, după moartea lui Freddie Gray (bărbatul de culoare, în vârstă de 25 de ani, arestat pentru deținerea unui presupus cuțit și intrat în comă în timp ce era transportat cu o dubă a poliției, mort o săptămână mai târziu din cauza unor leziuni la coloana vertebrală, n.r.), întregul oraș era un butoi de pulbere. Și am început să mă întreb ce s-ar fi putut întâmpla dacă ar fi apărut un deepfake cu șeful poliției făcând comentarii rasiste. Întregul loc ar fi explodat“, povestea pentru The Guardian Danielle Citron, profesor la Universitatea Maryland, expert internațional în intimitatea informațiilor personale, libertatea de expresie și drepturi civile. În opinia acesteia, proliferarea deepfake-urilor într-un climat politic deja polarizat ar putea eroda catastrofal încrederea între diferitele facțiuni ale societății.
Practic, oricine are acces la această tehnologie, de la propagandiștii consacrați de stat la trollii de serviciu, are și potențialul să denatureze informația și să manipuleze convingerile personale, astfel încât să împingă mai profund în propriile lor realități subiective (și paralele) comunitățile online opuse ideologic. „Piața ideilor suferă deja de o denaturare a adevărului, iar deepfake-urile vor exacerba modul toxic în care interacționăm în rețea cu prejudecățile noastre cognitive“, adaugă Citron.
Pentru a atrage atenția asupra modului în care conținutul media falsificat cu ajutorul inteligenței artificiale poate fi folosit pentru a distorsiona și manipula realitatea, regizorul american Jordan Peele a realizat împreună cu BuzzFeed un deepfake în care fostul președinte Barack Obama spune despre Donald Trump că ar fi „complet bătut în cap“. „Eu nu aș spune niciodată așa ceva. Cel puțin nu într-un discurs public. Dar altcineva ar face-o. Cineva ca Jordan Peele. Trăim vremuri periculoase. (…) Trebuie să fim mai atenți în ce ne încredem în internet“, adaugă falsul Obama, reproducând într-o filmare în oglindă mimica și gesturile lui Peele.
Într-un astfel de joc al imitației au mai fost captivi Vladimir Putin și George W. Bush, ale căror cuvinte și mișcări au fost dictate în timp real de un grup de cercetători germani care au pus la punct un software care manipulează orice față, în orice conținut video, doar cu ajutorul unei banale camere web.
DEZINFORMARE PENTRU TOȚI. „Avem de mult abilitatea de a manipula fotografii sau filme. Dar, în trecut, dacă voiai să faci un film cu președintele spunând ceva ce nu a spus, aveai nevoie de o întreagă echipă de experți. Inteligența artificială nu doar că a început să automatizeze aceste procese, dar va avea probabil și rezultate incomparabile“, spune și Tim Hwang, director al Harvard-MIT Ethics and Governance of Artificial Intelligence Initiative. În opinia acestuia, există riscul să ne trezim brusc în mijlocul unei „furtuni perfecte a dezinformării“.
Pe măsură ce amenințarea fantomei deepfake e tot mai actuală, se intensifică și eforturile pentru găsirea unor metode eficiente de identificare a acestor falsuri. Ministerul Apărării din SUA, de exemplu, a început să lucreze la dezvoltarea unor algoritmi AI care să detecteze conținutul media contrafăcut. Dar, din câte declara pentru MIT Technology Review șeful proiectului, David Gunning, încă e greu de făcut un pronostic în ceea ce privește eficiența viitoare a acestora.
„În trecut, falsificatorii aveau nevoie de câțiva ani să treacă de o tehnică nouă de detectare. În ultima vreme însă, nu le ia mai mult de două-trei luni“, spune și Hany Farid, profesor de știința computerelor la Universitatea din California, care în ultimii 20 de ani a dezvoltat diferite tehnologii criminalistice pentru identificarea falsurilor digitale. „Adevărata problemă nu este că tehnologia din spatele deepfake-urilor e din ce în ce mai performantă. Adevărata problemă este că procesele sociale prin care ajungem la nivel colectiv să cunoaștem lucrurile și să le considerăm adevărate sau false sunt amenințate acum“, mai crede el.
„Incidentul belgian“ – un exemplu cu o miză măruntă, de altfel – a demonstrat deja că un deepfake nu trebuie să fie impecabil tehnologic și nici măcar extrem de convingător, pentru a fi crezut și a produce pagube. Iar dacă lucrurile stau într-adevăr așa, marea amenințare a deepfake-urilor ar putea fi reprezentată nu atât de conținutul în sine, cât de simpla posibilitate a existenței lor.