Cât de periculoasă este inteligența artificială în manipularea și modificarea discursurilor politicienilor

Romulus Deac 16/06/2023 | 11:21 Digital
Cât de periculoasă este inteligența artificială în manipularea și modificarea discursurilor politicienilor

Întrebarea nu este dacă inteligența artificială va începe să joace un rol (negativ) în politică, pentru că se întâmplă deja. Întrebarea este ce se va întâmpla când oricine va putea crea cu un efort minim un deepfake convingător al unui politician.

Vreme-ndelungată s-a încăpățânat să reziste apelurilor și presiunilor de a se retrage și de a pune astfel capăt divizării electoratului de dreapta, pentru a-i netezi drumul spre victoria în alegeri lui Kemal Kılıçdaroglu, liderul opoziției din Turcia, cel care a sperat până dincolo de ultimul moment să devină următorul președinte al țării.

Dar apoi, cu doar câteva zile înainte de primul scrutin, când buletinele de vot fuseseră deja tipărite cu fotografia și numele lui pe ele, Muharrem Ince a dat brusc înapoi. „Îmi retrag candidatura. Fac asta pentru țara mea“, anunța el la o conferință de presă organizată la Istanbul, invocând o campanie susținută de defăi­mare împotriva sa, care a culminat cu reali­zarea unui deepfake devenit rapid viral pe re­țelele sociale.

O înregistrare video cu un bărbat și o fe­meie care fac sex a fost descăr­cată de pe un site porno israelian, a detaliat el, și a fost apoi prelucrată astfel încât să pară că el este protagonistul unor scene in­terzise (nu doar) minorilor. „Aceasta nu este viața mea privată! Este calomnie! Nu e ade­vărat!“, a mai spus Ince, care a mai candidat împo­triva lui Recep Tayyip Erdogan și în 2018.

Efectele retragerii sale (nu) au fost greu de cuantificat în acel moment. Pe baza son­da­jelor electorale de dinaintea pri­mului tur, Kılıçdaroglu avea susținerea a 49,3% din elec­torat, iar președintele Erdo­gan, 43,7%.

Prin comparație, cele trei procente ale lui Ince puteau părea insignifiante. Numai că, în marea schemă a alegerilor pre­­zidențiale, Kılıçdaroglu mai avea nevoie doar de o mână de voturi în plus pentru a trece de pra­gul de 50%, care i-ar fi putut asi­gura victoria dintr-un singur tur în fața unui autocrat aflat de două decenii la pu­tere și recunoscut ca un supraviețuitor po­litic.

Iar teo­retic, această mână de voturi ar fi putut să vină tocmai de la susținătorii lui Ince.

Dacă acesta din urmă nu a mai făcut alte comentarii, Kılıçdaroglu s-a grăbit să arate cu un deget acuzator înspre Moscova. „Dragi prieteni ruși, voi vă aflați în spatele montajelor, comploturilor, conținuturilor deepfake și al înregistrărilor care au apărut ieri (10 mai, n.r.) în această țară.

Dacă vreți prietenia noastră, după 15 mai (ziua primului tur al alegerilor, n.r.), luați-vă mâinile de pe statul turc“, scria Kılıçdaroglu într-un me­saj postat pe Twitter.

Întrebat de Reuters dacă are vreo dovadă că Rusia e într-adevăr responsabilă pentru lansarea și promovarea de conținut fals în online-ul turcesc în zilele premergătoare ale­gerilor, a răspuns că „dacă nu aș avea, nu aș fi scris“, fără a intra însă în detalii și subliniind că, dacă ajunge președinte, vrea să aibă o legătură de colaborare și prietenie cu Moscova. Ulterior, pe rețelele sociale a început să circule scenariul că retragerea lui Ince ar fi fost forțată chiar de către Kılıç­da­roglu și că, în aceste condiții, preșe­din­tele Erdogan ar trebui să fie cel sprijinit.

„Res­pingem cu fermitate astfel de afirmații. Declarăm oficial: nu se poate vorbi despre nicio interferență. Dacă cineva i-a oferit domnului Kılıçdaroglu astfel de informații, sunt minciuni“, a venit replica Kremlinului, prin purtătorul de cuvânt Dmitri Peskov.

Comentând retragerea lui Ince din cursa prezidențială, ministrul de interne al Turciei, Süleyman Soylu, a acuzat în schimb Statele Unite pentru amestecul în procesul electoral din țara sa.

„America a intervenit în aceste alegeri încă de la început“, a spus acesta într-un interviu televizat pe 12 mai, susținând că președintele american Joe Bi­den ar fi spus că Statele Unite nu au fost ca­pabile să se amestece în politica turcă în tentativa de lovitură de stat din 2016, dar că, „de data aceasta, o vom face cu alegeri și nu cu o lovitură de stat“.

„Logica de bază a Statelor Unite este «dacă Ince devine un fost candidat, am obține voturile care i-ar fi re­venit»“, a mai spus Süleyman Soylu.

Cât despre Erdogan, acesta a văzut în re­tra­gerea lui Ince o nouă oportunitate pentru a-l ataca pe Kılıçdaroglu, spunând că acesta s-ar afla de fapt în spatele scandalului infamului deepfake sexual. „Cu ce a venit domnul Bye-Bye Kemal (Kılıçdaroglu, n.r.)? Cu o înregistrare.

Și l-a înlăturat pe unul dintre candidații la președinție. Se pare că me­todele FETO (acronimul pe care Ankara îl utilizează pentru desemnarea mișcării ima­mului Fethullah Gülen, care trăiește în exil în SUA și este acuzat de Turcia de organizarea puciului eșuat din iulie 2016, n.r.) sunt din nou în vigoare.

Nu îmi place faptul că po­litica a ajuns la un nivel atât de scăzut în țara noastră“, a spus Erdogan, proaspăt reales șef al statului.

Critica rațiunii impure

Cu câteva zile înainte de această declarație, la un miting în Istanbul al Partidului Justiției și Dezvol­tării (AKP), fondat de același Erdogan, o variantă editată a videoclipului oficial de campanie a lui Kılıçdaroglu a fost difuzată pe mai multe ecrane gigantice.

În imagini, după unele instituții de presă turce, reali­zate cu un algoritm AI, după altele, modificate prin folosirea a două surse video reale diferite, a fost adăugat Murat Karayılan, cofondator al Partidului Muncitorilor din Kurdistan (PKK), o organizație militantă kurdă clasificată drept organizație teroristă de Uniunea Europeană și de Statele Unite, aplaudând pe îndemnul „Haide, haide, hai să mergem cu toții la vot!“, din melodia de cam­panie a opoziției.

Într-un alt videoclip, distribuit masiv pe re­țelele sociale, Erdogan apare între­bându-i pe cei aproximativ 1,7 milioane de susțină­tori care au participat la mitingul său – „Ar vota compatrioții mei pentru acești oameni?“, adăugând apoi, „Uită-te la asta, este foarte important!“.

În perioada campaniei electorale, portalul turc independent de verificare a infor­ma­țiilor Teyit – care înseamnă „confirmare“ – a identificat peste 150 de deepfake-uri me­nite să-i inducă în eroare pe potențialii vo­tanți, deepfake-uri care îi acuzau pe candi­dați (preponderent cei ai opoziției) în special de terorism și desconsiderarea normelor sociale.

E adevărat, unele dintre ele au avut și un caracter satiric. Într-un astfel de deepfake „benign“, în­soțit inclusiv de un disclaimer, apare un Kemal Kılıçdaroglu vorbind impecabil limba engleză. „Experimentez în mod constant cu AI (inteligența artificială, n.r.) pentru a des­coperi noi func­ționalități. Am reprodus cu un algoritm vocea lui Kemal Kılıçdaroglu și am folosit-o pentru o versiune în limba en­gleză a discursului său de candidatură“, declara pentru Euronews creatorul videoclipului distribuit pe Twitter de pe contul @ytc06.

Numai că, avertizează Henry Ajder, specialist în deepfake, „când ceva conceput drept satiră este scos din context, poate fi ușor luat drept ceva real, mai ales dacă se adresează unui public părtinitor“. „Poate fi destul de ușor să recunoști un astfel de con­ținut fals, însă nu și pentru oamenii care nu mai gândesc critic“, spune Cem Say, expert turc în inteligență artificială.

Termenul „deepfake“ este o combinație între „deep learning“ (învățare profundă), un tip de algoritm AI, și „fake“ (fals), iar teh­nologia din spatele său – denumită „generative adversarial network“ (GAN) – a fost dez­voltată în 2014 de Ian Goodfellow, pe atunci absolvent al unui doctorat în machine lear­ning la Universitatea din Montréal, în momentul de față director în divizia de pro­iecte speciale a companiei Apple.

Într-o explicație cât mai simplă, algoritmul care stă la baza unui video deepfake suprapune mișcările și cuvintele unei persoane (A) peste cele ale personajului-fals(ificat) (B). Practic, AI generează un nou video, în care B se mișcă și vorbește având ca refe­rință A. Cu cât algoritmul învață din mai multe în­re­gistrări video, cu atât rezultatul este mai rea­list și mai greu de identificat ca fals.

La scurt timp după popularizarea sa, noua tehnologie a fost văzută ca o amenințare iminentă la adresa democrației, dacă nu chiar ca un sfârșit al adevărului discursului public. Practic, oricine are acces la această tehnologie, de la propagandiștii consacrați de stat la trollii de serviciu, are și potențialul să denatureze informația și să manipuleze convingerile personale, astfel încât să îm­pingă mai profund în propriile lor realități subiective (și paralele) comunitățile online opuse ideologic.

„Piața ideilor suferă deja de o denaturare a adevărului, iar deepfake-urile vor exacerba modul toxic în care inte­rac­ționăm în rețea cu prejudecățile noastre cognitive“, spunea pentru cotidianul brita­nic The Guardian Danielle Citron, profe­soară la Universitatea Maryland, expertă in­ternațională în libertatea de expresie și drepturi civile.

„Software-urile de manipulare video sunt periculoase la scară geopolitică“, avertiza cu ceva vreme în urmă și senatorul american Ben Sasse, solicitând o acțiune „rapidă și decisivă“ din partea Congresului. Din­coace de Ocean, Bruxelles-ul a publicat o stra­tegie pentru combaterea dezinformării, inclusiv a deepfake-urilor, care propune, prin­tre altele, inclusiv crearea unei rețele europene independente de persoane care să verifice faptele pentru a analiza sursele și a procesa conținutul informațiilor.

Minciuni adevărate

Având în vedere că progresele în inteligența artificială nu arată niciun semn de încetinire, dimpotrivă, experții în dezinformare sunt într-o cursă îm­potriva creatorilor de conținut AI, mai ales că deepfake-urile create de surse oficiale au început să-și facă loc și pe alte scene politice. În 2018, conform unor sta­tistici publicate de ziarul american The Wall Street Journal, mai puțin de 10.000 de deepfake-uri au fost detectate online. Astăzi se estimează că numărul lor e de câteva mili­oane.

Și, deloc surprinzător, între timp au apă­rut și numeroase falsuri în care sunt implicate personalități politice, cum ar fi un vi­deoclip de anul trecut în care președintele ucrainean Volodimir Zelenski le cere trupelor sale să se predea. După ce Joe Biden a anunțat că va candida încă o dată la preșe­dinția Statelor Unite, Comitetul Național Republican a lansat un videoclip conceput de inteligența artificială care descrie un vii­tor distopic sub un al doilea mandat al aces­tuia.

Iar experții avertizează deja că deepfake-urile vor fi una dintre principalele provocări ale alegerilor prezidențiale din SUA din 2024. „Dacă 2008 și 2012 au fost «alegerile Facebook», cele de anul viitor vor fi alege­rile AI – și vor fi mult mai perturbatoare“, con­sideră Tom Newhouse, vicepreședinte al Convergence Media, o companie ameri­cană de marketing digital care utilizează inteligența artificială.

În Filipine, președintele Ferdinand Marcos Jr s-a bazat pe o armată de trolli desfă­șu­rată pe TikTok pentru a câștiga voturile tinerilor la alegerile de anul trecut. Odată cu popularizarea unor instrumente precum ChatGPT, automatizarea cu roboți AI i-ar putea permite oricărui politician cu acces la tehnologie să facă un astfel de proces mai simplu, mai rapid și mai eficient. Un chatbot de dezinformare ar putea fi exploatat pe forumuri și în rețelele sociale pentru a face ca o anumită părere să fie promovată pe scară largă.

Cercetările au demonstrat că deciziile unui individ sunt influențate de deciziile altora și că ceea ce este conside­rată o părere majoritară în rețelele sociale nu este de fapt decât o aparență; așa-nu­mita „iluzie a majorității“ – faptul că mai mulți oameni își exprimă același punct de vedere, adesea în același timp sau în același loc, îi convinge/înșela pe observatori că toată lumea crede/simte la fel, indiferent dacă cei care vorbesc sunt sau nu cu ade­vă­rat reprezentativi – sau chiar reali.

„Implicarea inteligenței artificiale în ale­geri ar putea schimba radical strategiile de campanie, de la colectarea de date la trucuri murdare, amplificând efectul mesa­je­lor-țintă către anumite categorii de alegători pentru a crea reprezentări inflamatorii și false ale candidaților oponenți“, spune și Aiden Buzzetti, președinte al organizației nonprofit Bull Moose Project, care își propune să identifice și să pregătească o nouă generație de oameni politici ai Americii. Ce e de făcut? Cel mai la-ndemână ar fi să ne luăm informațiile din surse media cunoscute și care pot verifica faptele. Ceea ce poate fi destul de complicat în cazul Turciei, unde 90% din mass-media națională s-ar afla sub control guvernamental, potrivit unui raport al grupului pentru libertatea presei Reporteri Fără Frontiere.

Anadolu, agenția de presă a guvernului turc, a fost acuzată că a refuzat să facă disponibile rezultatele sondajelor pentru primarul din Istanbul, din 2019, câștigate de opoziție, iar un raport de luna trecută al misiunii Organizației pentru Securitate și Cooperare în Europa (OSCE) de observare a alegerilor a ridicat semne de întrebare cu privire la imparțialitatea organismului de re­glementare a presei din țară, RTÜK.

În momentul de față există o mulțime de instrumente AI capabile să genereze ima­gini plecând de la o solicitare sub formă de text, cum ar fi DALL-E, Midjourney sau Stable Diffusion. La fel de ușor este și să ge­nerezi o clonă a vocii cuiva, folosind un program cum este cel al ElevenLabs.

Videoclipurile deepfake convingătoare încă sunt dificil de produs, dar Ajder spune că lucrurile s-ar putea schimba în urmă­toarea perioadă. „În momentul de față nu există un site pe care să intri și să spui «Creează-mi un videoclip cu Joe Biden spu­nând X». Dar va exista. E doar o chestiune de timp“, spune și Hany Farid, profesor la UC Berkeley’s School of Information.

Pentru Mark Coeckelbergh, profesor de filozofie a mass-media și tehnologie la Universitatea din Viena, inteligența artificială poate contribui la împingerea persuasiunii tipice într-un teritoriu negativ. Politicienii încearcă în mod natural să ne influențeze, spune el, dar „problema cu multe dintre aceste tehnologii este că ele urmăresc mai degrabă manipularea decât persuasiunea prin argumente și informații“, spune el.

„Ceea ce faci (ca politician care folosește AI, n.r.) este că îi tratezi pe oameni nu ca pe niște subiecți autonomi, bine informați, ci ca pe niște șobolani de laborator, pe care îi poți manipula cu ajutorul datelor culese de la/despre ei.“

Cât de departe ar putea ajunge cu adevă­rat acea manipulare? Să mai spunem că politicienii și candidații politici nu ezită să își mintă alegătorii? Mai e nevoie de exemple? Iar dacă un om – până la urmă, oare­care – își poate înșela semenii atât de ușor, la ce nivel ar putea fi duse lucrurile cu ajutorul unei inteligențe artificiale?

Acest articol a apărut în numărul 165 al revistei NewMoney

FOTO: Getty