Deepfake-urile, una dintre principalele provocări pentru alegerile din 2024

Romulus Deac 22/03/2024 | 11:00 Digital
Deepfake-urile, una dintre principalele provocări pentru alegerile din 2024

Odată cu explozia inteligenței artificiale e mai ușor ca niciodată să manipulezi oamenii pe internet, iar asta transformă alegerile de anul acesta din întreaga lume într-un test fără precedent.

„Cum s-a reușit așa ceva nu pot să îmi dau seama. M-a lăsat cu gura căscată. Sigur e o farsă. Este?“, comenta un internaut un vi­deo­clip de pe YouTube, în care un Klaus Io­han­nis, inimaginabil de zâmbitor și de plin de antren, cântă la acordeon muzică lăută­rească, acompaniat la țambal de Liviu Dragnea și de Marcel Ciolacu la orgă electro­nică.

Răspunsul e evident. Da, e o farsă. Una chiar reușită. Numai că, într-un 2024 în care cetățenii din circa 70 de țări – estimate că acoperă spre jumătate din populația lumii, adică aproape patru miliarde de oameni – vor merge la vot, experții avertizează că pro­cesul electoral democratic riscă serios să fie perturbat de creații asemănătoare, și totuși complet diferite, realizate cu ajutorul algoritmilor de inteligență artificială (AI).

Arma de manipulare

Gail Huntley a recunoscut tonul grav al vocii lui Joe Biden de îndată ce a răspuns la telefon. În vârstă de 73 de ani, femeia din New Hampshire se pregătea în acea zi să voteze pentru preșe­dinte la alegerile primare din statul său, așa că a rămas extrem de confuză când un mesaj preînregistrat de la el o îndemna să nu o facă, scrie Wired. „E important să-ți păs­trezi votul pentru alegerile din noiembrie. Votul de astăzi doar le dă apă la moară republicanilor în încercarea lor de a-l alege din nou pe Donald Trump“, se spunea în me­saj.

Huntley a realizat destul de repede că ape­lul e un fals, dar și-a imaginat că spusele lui Biden au fost scoase dintr-un context mai larg. A fost șocată când a devenit clar că înregistrarea a fost generată de fapt de un algoritm AI. Câteva săptămâni mai târ­ziu, Statele Unite au declarat ilegale apelurile automate care folosesc voci generate de inteligența artificială. Deepfake-ul Biden este văzut acum drept primul test major pentru guverne, companii tehnologice și gru­puri ale societății civile, care par să fie toate blocate într-o dezbatere aprinsă cu pri­vire la cel mai bun mod de a controla un ecosistem informațional în care oricine poate crea imagini și înregistrări video rea­liste ale candidaților sau le poate reproduce vocile cu o precizie înspăimântătoare.

Diferite creații AI au fost deja folosite în ultimele luni în alegerile din Slovacia, Taiwan și Indonezia, într-un context în care în­­crederea în politicieni, instituții și mass-media este deja scăzută. Cu doar două zile înainte de scrutinul din octombrie 2023 din Slovacia, o înregistrare audio a fost distri­buită pe Facebook. Se auzeau două voci: una care părea a fi a fostului vicepreședinte al Parlamentului, Michal Šimecˇka, șef al partidului Slovacia Progresistă, și o alta a jurna­listei Monika Tódová, de la cotidianul Denník N. Păreau să discute despre cum să fraudeze alegerile, inclusiv prin cumpărarea de voturi de la minoritatea rromă a țării. Cei doi au denunțat înregistrarea drept un fals, iar o analiză de specialitate a demonstrat că a fost manipulată cu ajutorul inteligenței artificiale.

Slovacia Progresistă a pierdut alegerile, care au fost câștigate de Smer-SD, forma­țiune populistă care, printre critici la adresa Uniunii Europene și a NATO, a promis în cam­­panie retragerea sprijinului militar acor­dat Ucrainei. Înainte de vot, vicepreșe­dinta Comisiei Europene, Veˇra Jourová, co­misar european pentru Valori și Transpa­rență, spunea că alegerile din Slovacia vor reprezenta un caz-test pentru cât de vulne­rabile sunt alegerile europene în fața „armei de manipulare în masă de mai multe mili­oane de euro“ folosită de Moscova pentru a se amesteca în alegeri.

Turcul plătește

Despre un presupus amestec al Moscovei s-a vorbit și în timpul alegerilor prezidențiale de anul trecut din Turcia, câștigate de Recep Tayyip Erdog˘an, ajuns la al treilea mandat. Cu doar câteva zile înainte de primul scrutin, unul dintre candidații opoziției, Muharrem Ince, și-a anunțat retragerea, invocând o campanie sus­ținută de defăimare împotriva sa, care a culminat cu un deepfake devenit rapid viral pe rețelele sociale. O înregistrare video cu un bărbat și o femeie care fac sex a fost des­cărcată de pe un site porno israelian, a detaliat el, și a fost apoi prelucrată astfel în­cât să pară că el este protagonistul unor scene interzise (nu doar) minorilor.

Creditat de sondajele de la acea vreme cu prima șansă la victorie, Kemal Kılıç­da­rog˘lu, liderul opoziției din Turcia, a publicat imediat pe X un mesaj în care arăta cu degetul înspre Kremlin. „Dragi prieteni ruși, voi vă aflați în spatele montajelor, comploturilor, conținuturilor deepfake și a înregis­tră­rilor care au apărut ieri (10 mai 2023, n.r.) în această țară. Dacă vreți prietenia noastră, după 15 mai (ziua primului tur al alegerilor, n.r.), luați-vă mâinile de pe statul
turc!“, scria el. Întrebat de Reuters dacă are vreo do­vadă că Rusia e într-adevăr responsabilă pentru lansarea și promovarea de conținut fals în online-ul turcesc în zilele premergă­toare alegerilor, a răspuns că „dacă nu am avea, nu aș fi scris“, fără a intra însă în detalii și subliniind că, dacă ajunge președinte, vrea să aibă o legătură de colaborare și prie­tenie cu Moscova.

Ulterior, pe rețelele sociale a început să cir­cule scenariul că retragerea lui Ince ar fi fost forțată chiar de către Kılıçda­roglu, în speranța de a atrage de partea lui și votanții acestuia. „Respingem cu fermitate astfel de afirmații. Declarăm oficial: nu se poate vorbi despre nicio interferență. Dacă cineva i-a oferit domnului Kılıç­da­rog˘lu astfel de informații, sunt minciuni“, a venit replica Kremlinului, prin purtătorul de cuvânt Dmitri Peskov.

Cert este că, în perioada campaniei electorale, portalul turc independent de verificare a informațiilor Teyit – care înseamnă „con­firmare“ – a identificat peste 150 de deepfake-uri menite să-i inducă în eroare pe potențialii votanți, deepfake-uri care îi acuzau pe unii candidați (preponderent cei ai opoziției) în special de terorism și desconsiderarea normelor sociale.

Inamicul democrației

Termenul deepfake este o combinație între deep learning (învățare profundă), care este un tip de algoritm AI, și fake (fals), iar tehnologia din spatele său – denumită generative adversarial network (GAN) – a fost dezvoltată în 2014 de Ian Goodfellow, pe atunci absolvent al unui doctorat în machine learning la Universitatea din Montréal (Canada). Într-o explicație simplă, algoritmul AI care stă la baza unui video deepfake suprapune miș­că­rile și cuvintele unei persoane (A) peste cele ale personajului-fals(ificat) (B). Practic, AI generează un nou video, în care B se mișcă și vorbește având ca referință A. În cazul videoclipului cu președintele Klaus Iohannis, de exemplu, fața acestuia a fost suprapusă peste cea a acordeonistului din înregistrarea originală, ale cărui expresii și mișcări ale capului le-a reprodus apoi. Cu cât algoritmul învață din mai multe înregis­trări video, cu atât rezultatul final este mai realist și mai greu de identificat ca fals.

Odată cu popularizarea sa, noua tehnologie a fost văzută ca o amenințare iminentă la adresa democrației, dacă nu chiar ca un sfârșit al adevărului discursului public. Prac­tic, oricine are acces la aceasta, de la pro­pagandiști consacrați de stat la troli de serviciu, are și potențialul să denatureze informația și să manipuleze, astfel încât să împingă mai profund în propriile lor realități subiective (și paralele) comunitățile online opuse ideologic.

„Piața ideilor suferă deja de o denaturare a adevărului, iar deepfake-urile vor exa­cer­ba modul toxic în care interacționăm în rețea cu prejudecățile noastre cognitive“, spunea pentru ziarul britanic The Guardian Danielle Citron, profesoară la Universitatea Maryland (SUA), expertă internațională în libertatea de expresie și drepturi civile.

„Software-urile de manipulare video sunt periculoase la scară geopolitică“, avertiza cu ceva vreme în urmă și senatorul american Ben Sasse, solicitând o acțiune „rapidă și decisivă“ din partea Congresului.

Dincoace de Ocean, Bruxelles-ul a publicat o strategie pentru combaterea dezinfor­mării, inclusiv a deepfake-urilor, care propune, printre altele, crearea unei rețele europene independente de persoane care să ve­rifice faptele pentru a analiza sursele și a procesa conți­nu­tul informațiilor.

În 2018, conform unor statistici publicate de cotidianul american The Wall Street Journal, mai puțin de 10.000 de deepfake-uri au fost detectate online. Astăzi se estimează că numărul lor e de câteva milioane. Și, deloc surprinzător, între timp au apărut și nume­roase falsuri în care sunt implicate perso­na­lități politice, cum ar fi un videoclip de anul trecut în care președintele ucrainean Volo­dimir Zelenski le cere trupelor sale să se predea. După ce Joe Biden a anunțat că va candida încă o dată la președinția Statelor Unite, Comitetul Național Republican a lansat un videoclip, conceput de inteligența artificială, care înfățișează un viitor disto­pic, à la „O mie nouă sute optzeci și patru“ sau „Povestea slujitoarei“, sub un al doilea mandat al său. Iar experții au început să aver­tizeze încă de prin 2022 că deepfake-urile vor fi una dintre principalele provocări ale alegerilor prezidențiale din SUA din 2024. „Dacă 2008 și 2012 au fost «alegerile Facebook», cele din 2024 vor fi alegerile AI și vor fi mult mai perturbatoare“, averti­zează Tom Newhouse, vicepreședinte al com­paniei americane de marketing digital Convergence Media, care utilizează inteli­gența artificială.

Trolii vechi și noi

În Filipine, preșe­din­tele Ferdinand Marcos Jr s-a bazat pe o ar­mată de troli desfășurată pe TikTok pentru a câștiga voturile tinerilor la alegerile din 2022. Odată cu popularizarea unor instrumente precum ChatGPT, automatizarea cu roboți AI i-ar putea permite oricărui politician să facă un astfel de proces mai simplu, mai rapid și mai eficient. Un soft de dezinformare ar putea fi exploatat pe forumuri și în rețelele sociale pentru a face ca o anu­mită părere să fie pro­movată pe scară largă. Cercetările au de­mon­strat că deciziile unui individ sunt influențate de deciziile altora și că nu este de fapt decât o aparență ceea ce este consi­de­rată o părere majoritară în re­țelele sociale; așa-numita „iluzie a majo­ri­tății“ – faptul că mai mulți oameni își ex­primă (un) ace­lași punct de vedere, adesea în același timp sau în același loc, poate con­vinge/înșela ob­servatorii că toată lumea crede/simte la fel, indiferent dacă cei care vorbesc sunt sau nu cu adevărat reprezentativi – sau chiar reali.

În momentul de față (încă) este posibil să detectăm comentarii repetitive sau reci­clate care utilizează aceleași fragmente de text pentru a crea iluzia unui fals consens într-o secțiune de comentarii sau pentru a convinge publicul prin intermediul conținu­tului difuzat pe Facebook – o tactică obser­vată într-o serie de campanii anterioare de manipulare. Un studiu realizat de Centrul de Cercetare Pew a analizat 21,7 milioane de comentarii pe tema neutralității interne­tului publicate pe pagina Comisiei Federale de Comunicaţii din SUA, constatând că doar 6% dintre acestea erau unice/originale. Restul de 94% au fost identificate ca fiind copii ale altor comentarii, majoritatea argumentând împotriva reglementărilor privind neutralitatea rețelei. Și o analiză pu­blicată de The Wall Street Journal a descoperit zeci de mii de comentarii suspecte pe teme diferite, identificate ca atare, deoarece conțineau propoziții repetate, lungi, care era puțin probabil să fi fost scrise spontan de diferite persoane. Dacă aceste comentarii ar fi fost generate independent – de o AI, de exemplu –, campaniile de manipulare în cauză ar fi fost mult mai greu de dat în vileag.

„Implicarea inteligenței artificiale în ale­geri ar putea schimba radical strategiile de campanie, de la colectarea de date la trucuri murdare, amplificând efectul mesa­je­lor-țintă către anumite categorii de alegători pentru a crea reprezentări inflamatoare și false ale candidaților oponenți“, spune și Aiden Buzzetti, președinte al organizației nonprofit Bull Moose Project, care își propune să identifice și să pregătească o nouă generație de oameni politici ai Americii.

Astăzi există o mulțime de instrumente AI capabile să genereze imagini plecând de la o solicitare sub formă de text, cum ar fi DALL-E, Midjourney sau Stable Diffusion. La fel de ușor este și să generezi o clonă a vocii cuiva, folosind un program cum este cel realizat de ElevenLabs.

E adevărat, videoclipurile deepfake cu adevărat convingătoare încă sunt greu de produs, dar lucrurile s-ar putea schimba. „Acum nu există un site pe care să intri și să spui «creează-mi un videoclip cu Joe Biden spunând X». Dar va exista. E doar o chestiune de timp“, avertiza cu ceva vreme în urmă și Hany Farid, profesor la UC Berkeley’s School of Information. Astăzi, cel puțin teoretic, Sora AI, algoritmul creat de Open­AI care transformă descrierile dintr-un text în imagini video, ar putea face și asta.

„Lipsește imaginația“

Pentru Mark Coe­ckelbergh, profesor la Universitatea din Viena, AI poate contribui la împingerea persuasiunii tipice într-un te­ritoriu negativ. Po­li­ticienii încearcă în mod natural să ne in­flu­en­țeze, spune el, dar „pro­blema cu multe dintre aceste tehnologii este că ele urmă­resc mai degrabă manipularea decât persuasiunea prin argumente și informații“, spune el. „Ceea ce faci (ca politi­cian care folosește AI, n.r.) este că îi tratezi pe oameni nu ca pe niște subiecți auto­nomi, bine informați, ci ca pe niște șobolani de laborator, pe care îi poți manipula.“

Luna trecută, marile companii tehnolo­gice au anunțat semnarea unui acord de adoptare a ceea ce reprezentanții lor nu­mesc „măsuri rezonabile“ necesare pentru a preveni utilizarea inteligenței artificiale în a perturba alegerile. Printre semnatari se numără OpenAI, creatoarea softului ChatGPT, Google, Adobe și Microsoft – companii care la rândul lor au lansat instrumente AI gene­ratoare de conținut vizual, audio sau text. OpenAI, de exemplu, al cărei software Dall-E este folosit pentru a crea imagini foto realiste, a subliniat că aplicația sa va refuza cererile care solicită generarea de imagini cu persoane reale.

„Conținutul care ar pu­tea contribui la violență iminentă, la un pericol fizic sau care îndeamnă la neparticipare la vot va fi eliminat de pe Facebook, In­stagram și Threads“, a anunțat și Marco Pancini, responsabilul companiei Meta pentru relațiile cu UE. TikTok a promis la rândul său că va lansa un centru electoral pentru fiecare dintre cele 27 de state membre ale Uniunii Europene pentru a se asigura că oamenii „pot distinge cu ușurință faptele de ficțiune“. TikTok colaborează cu nouă or­ga­nizații europene de verificare a faptelor pentru a evalua precizia conținutului în 18 limbi, urmând să eticheteze „orice afirmații care nu pot fi verificate“.

Multe alte companii au interzis utilizarea produ­selor lor în campanii politice. Mid­journey – start-up al cărui generator de ima­gini este considerat de majoritatea specia­liș­tilor cel mai puternic și mai precis dintre toate cele existente – spune că utilizatorii nu pot folosi produsul pentru campanii po­li­tice „sau pentru a încerca să in­fluen­țeze rezultatul unei alegeri“.

Aplicarea concretă a unor astfel de mă­suri rămâne însă discutabilă. În ciuda inter­dicției OpenAI de a-i fi folosite instrumentele în campania politică, Reuters a raportat că acestea au fost utilizate pe scară largă la alegerile din Indonezia, desfășurate în fe­bruarie, pentru a crea artă de campanie, pentru analize de sentiment pe rețelele sociale, pentru a construi chatboturi și pentru a ținti anumite categorii de alegători.

Chiar și așa, pentru mulți experți, marele motiv de îngrijorare nu e atât tehnologia cu care ne confruntăm deja, ci inovațiile pe cale să se întâmple. Când vine vorba de mo­dul în care AI poate ame­nința demo­crația, spun ei, din conver­sația publică „lipsește imaginația“. Adevăratul pericol nu este re­pre­zentat de ceea ce ne temem deja, ci de ceea ce nu ne pu­tem imagina încă.

Acest articol a apărut în numărul 183 al revistei NewMoney

FOTO: Getty