Când vine vorba despre tehnologia de recunoaștere facială și folosirea ei de către forțele de ordine, rămân câteva lucruri mai greu de recunoscut

Cu ceva vreme în urmă, Kaitlin Jackson, un apărător public din Bronx (New York City, SUA), a fost desemnată să reprezinte în instanță un bărbat acuzat că ar fi furat o pereche de șosete dintr-un magazin TJ Maxx. Bărbatul s-a apărat spunând că nici măcar nu ar fi avut cum să fie el hoțul, deoarece în momentul în care a avut loc furtul aștepta nașterea fiului său, într-un spital aflat la câțiva kilometri distanță.
Dar lucrul cel mai greu de înțeles din toată povestea părea să fie cum a reușit poliția să îl identifice, la câteva luni de la furt și fără să existe în dosarul de acuzare măcar o descriere fie și vagă a presupusului autor.
Jackson a sunat la biroul Procurorului Districtual din Bronx, iar cineva de acolo i-a explicat că poliția i-a identificat clientul analizând cu un algoritm de recunoaștere facială înregistrările video făcute de camerele din magazin.
Singurul martor la furt, un agent de securitate al TJ Maxx, i-a spus ulterior că poliția i-a trimis o fotografie a clientului ei, întrebându-l sec printr-un SMS: „El este tipul?“.
Obiecțiile lui Jackson l-au determinat pe un judecător să ordone o audiere pentru a stabili dacă procesul de identificare a fost sau nu influențat/viciat de polițiști. La scurt timp după aceea, procurorii i-au oferit clientului ei o înțelegere: să pledeze vinovat, iar în schimb să fie condamnat la perioada pe care o petrecuse între timp în arestul preventiv, astfel încât să fie eliberat imediat.
Bărbatul, care era deja închis de aproximativ șase luni, a fost de acord. „Mi-ar fi plăcut să merg mai departe, să ajung la audieri și la proces, pentru că ar fi fost achitat. Dar nu avea niciun sens pentru el să mai stea în închisoare și să aștepte asta. Își dorea doar să își continue viața“, povestea Jackson pentru New York Magazine.
Suspecți de (de)serviciu
Neobișnuit în toată această poveste cu valențe kafkiene e chiar și simplul fapt că procurorul de caz i-a spus lui Jackson cum a fost identificat clientul ei. În majoritatea statelor americane, nici poliția, nici procurorii nu sunt obligați să dezvăluie când recunoașterea facială este folosită pentru a identifica o persoană suspectată de comiterea unei infracțiuni.
Avocații apărării spun că acest lucru îi dezavantajează din start, întrucât nu pot contesta potențialele erori făcute de tehnologia de recunoaștere facială. Mai ales în condițiile în care studiile de specialitate au demonstrat că astfel de sisteme excelează doar în identificarea bărbaților albi, de vârstă mijlocie, în cazul cărora se înregistrează o rată de succes de 99%. În schimb, continuă să aibă probleme în ceea ce privește persoanele cu ten închis, femeile și copiii.
Potrivit Institutului Național de Standarde și Tehnologie (NIST), o agenție guvernamentală americană aflată în subordinea Departamentului de Comerț, riscul ca o persoană cu ten închis să fie identificată greșit este de 10 până la 100 de ori mai mare decât în cazul uneia albe.
Numai în New Jersey, între ianuarie 2019 și aprilie 2021, astfel de recunoașteri eronate au dus la arestarea nejustificată a 228 de persoane.
„Utilizarea tehnologiei de recunoaștere facială nu ar trebui să fie un secret. Mai ales că poate reprezenta o problemă atât de mare în cauzele penale“, spune Anton Robinson, avocat la Innocence Project, o organizație nonprofit dedicată eliberării din închisoare a persoanelor care au fost condamnate pe nedrept.
Iar identificarea greșită este una dintre cauzele principale în trimiterea unor oameni nevinovați la închisoare. Indiferent cine o face.
Cei de la Project Innocence au constatat că mai mult de două treimi dintre persoanele exonerate pe baza unor probe ADN ulterior condamnărilor au fost identificate greșit de martori.
Și e un fapt demonstrat că martorii oculari pot avea dificultăți să recunoască persoane pe care nu le cunosc, mai ales când acestea provin din medii rasiale sau etnice diferite de cele ale lor.
Unele departamente de poliție din SUA au adoptat în ultima vreme politici care guvernează utilizarea recunoașterii faciale, cum ar fi obligativitatea ca doi specialiști să examineze rezultatele unei scanări înainte ca rezultatele să fie predate detectivilor.
Totodată, aceleași politici stabilesc că recunoașterea facială în sine nu (mai) poate fi folosită ca probă justificativă pentru a solicita și pune în practică un mandat de percheziție sau de arestare.
Numai că, din câte afirmă Jackson, poliția ascunde adesea utilizarea programelor de recunoaștere facială, atribuind unui martor identificarea unui suspect.
Matematica, oglinda chipului
În mod normal, căutările de recunoaștere facială care duc la acuzații penale au ca punct de plecare o imagine, cel mai adesea surprinsă de camere de securitate. Fotografia în cauză este rulată printr-un sistem cu inteligență artificială (AI) care o compară cu portretele deja existente în baze mari de date, cum ar fi cazierele, permisele de conducere sau actele de identitate.
Sistemul din Florida, de exemplu, include peste 13 milioane de fotografii de cazier și 25 de milioane de portrete pentru permise de conducere. Un analist uman analizează ulterior rezultatele căutării, selectează posibilele potriviri și le predă apoi anchetatorilor.
Rezultatele unei căutări pot include sute de fotografii, fiecare potrivire potențială având un așa-numit scor de încredere. Practic, cu cât scorul unei imagini returnate de algoritmul AI este mai mare, cu atât mai sigură poate fi considerată identificarea. Imaginile cu scorurile cele mai mari le sunt apoi arătate martorilor oculari. Dacă suspecții sunt recunoscuți, identificarea lor este atribuită însă exclusiv martorilor umani, nu (și) tehnologiei.
Vorbind despre ratele de eroare, Patrick Grother, șeful Departamentului de Biometrie din cadrul NIST, spune că acestea au scăzut cu 90% de când institutul a început să testeze, în 2018, astfel de sisteme. Algoritmii sunt mai buni acum la analiza imaginilor de calitate scăzută și la recunoașterea figurilor îmbătrânite, iar unii au făcut progrese inclusiv în recunoașterea fețelor surprinse din lateral sau parțial acoperite.
Cu toate acestea, rămân o mulțime de factori care pot influența rezultatele, de la iluminare și calitatea imaginii la vârstă și trăsături individuale. Un test al NIST, realizat în mare parte pe o bază de fotografii de înaltă calitate, a constatat că până și cei mai buni algoritmi pot comite erori în mai mult de 20% dintre cazuri.
O altă (mare) problemă ar fi aceea că există puține reguli care reglementează tipul de imagini pe care poliția le poate transmite sistemelor de recunoaștere facială. Într-un caz mai vechi, poliția din New York a avut o informație că un suspect de furt semăna cu Woody Harrelson, așa că a folosit o fotografie a actorului ca imagine de probă pentru comparațiile făcute de un algoritm AI, pentru a aresta în cele din urmă a zecea persoană care a apărut pe o listă furnizată de acesta.
În alte dosare, poliția a trimis pentru identificare portrete-robot, desenate de artiști pe baza descrierilor făcute de martori oculari.
Acolo unde noi vedem o față desenată, tehnologia de recunoaștere vede o mulțime de date. Practic, software-ul de recunoaștere facială citește geometria fețelor, identificând nu mai puțin de 68 de repere faciale cheie – cum ar fi distanța dintre ochi, adâncimea orbitelor, distanța de la frunte la bărbie, forma pomeților, conturul buzelor, al urechilor și al bărbiei –, cu ajutorul cărora creează o așa-numită amprentă facială; o formulă matematică, în fapt, care este comparată apoi cu baze de fețe cu identitate cunoscută.
Coșmarul libertăților civile
Popularizată odată cu integrarea în telefoanele mobile, tehnologia de recunoaștere facială a apărut într-o formă primitivă încă din anii ’60, când matematicianul și informaticianul Woodrow Wilson Bledsoe a dezvoltat un sistem de măsurători ale fețelor, cu ajutorul căruia acestea puteau fi încadrate în diferite categorii.
Conceptul a fost preluat rapid de forțele de ordine, care au început să își dezvolte propriile sisteme de recunoaștere facială. Anul oficial de naștere al tehnologiei, așa cum o știm astăzi, rămâne însă pentru mulți 2001, când forțele de ordine americane au folosit-o pentru identificarea din mulțime a oamenilor prezenți la un mare eveniment sportiv, Super Bowl XXXV.
În momentul de față, unul dintre cei mai importanți furnizori comerciali de tehnologie de recunoaștere facială pentru agențiile de aplicare a legii este Clearview AI. Din 2017 încoace, compania americană practic a „ras“ 20 de miliarde de imagini disponibile pe rețelele sociale și diferite alte site-uri publice, cu ajutorul cărora algoritmul său poate identifica instantaneu pe cineva, după cum pretinde CEO-ul Hoan Ton-That.
Cei de la The New York Times scriau la un moment dat că algoritmul respectiv poate fi asociat cu ochelari cu realitate augmentată, astfel că utilizatorii nu doar că ar putea afla în timp real numele fiecărei persoane pe care o văd, ci și unde locuiesc, cu ce se ocupă și pe cine cunosc.
Compania a apărut pe radarul public în 2019, după ce procurorii din Florida au acuzat o femeie că ar fi furat dintr-un magazin două grătare și un aspirator. A fost identificată după ce o captură video de la o cameră de supraveghere a fost analizată de algoritmul Clearview AI, care i-a dus pe anchetatori către pagina ei de Facebook. Un tatuaj vizibil în videoclipul în cauză și în fotografiile de pe rețeaua socială i-au confirmat identitatea.
Potrivit unei liste scurse în internet, printre clienții Clearview AI s-ar afla FBI, Serviciul de Cetățenie și Imigrări al SUA, Departamentul de Justiție al SUA, Interpol și alte peste 3.000 de agenții locale și federale americane de aplicare a legii, precum și mari companii precum AT&T, Verizon, T-Mobile, Best Buy, Eventbrite, Las Vegas Sands, Coinbase, Bank of America, Walmart sau Kohl’s. Adică „un coșmar pentru confidențialitatea, securitatea și libertățile civile“, după cum declara pentru CNET Nathan Freed Wessler, din echipa de avocați a Uniunii Americane pentru Libertăți Civile.
„Agențiile guvernamentale nu ar trebui să ne confrunte fețele cu o bază de date adunate în condiții dubioase, în secret, și fără garanții împotriva abuzurilor“, mai spunea acesta.
Potrivit aceleiași surse, algoritmii Clearview AI ar fi folosiți de agenții de aplicare a legii din Australia, Canada, Marea Britanie, Belgia, Brazilia, Danemarca, Elveția, Finlanda, Franța, India, Italia, Letonia, Lituania, Malta, Norvegia, Portugalia, Serbia, Slovenia, Spania, Suedia și Țările de Jos. Conform unor estimări recente, șapte din zece guverne ale lumii folosesc la scară largă diferite tehnologii de recunoaștere facială.
Orice asemănare cu realitatea e…
După izbucnirea conflictului militar din Ucraina, Clearview AI și-a oferit gratuit serviciile autorităților de la Kiev, iar aplicația sa a fost folosită până acum de cinci agenții guvernamentale din țara vecină (și) pentru a-i identifica pe soldații morți, cu scopul de le anunța familiile despre soarta lor.
Acest gen de implicare a companiilor private de tehnologie în conflicte armate a ridicat însă câteva semne de întrebare, criticii avertizând că acestea ar putea profita de o criză pentru a se extinde relativ nestingherite și că orice greșeală făcută de un software sau de cei care îl folosesc ar putea avea consecințe grave într-o zonă de război.
În momentul de față, Clearview AI se confruntă cu mai multe procese civile în Statele Unite pentru încălcarea unor drepturi, iar utilizarea de către companie a fotografiilor oamenilor fără consimțământul acestora a fost declarată ilegală în Canada, Marea Britanie, Franța, Australia și Italia.
Dar Clearview AI este doar una dintre numeroasele companii private cu care agențiile guvernamentale din SUA se asociază pentru a colecta și procesa informații cu caracter personal. Un alt exemplu este Vigilant Solutions, care captează imagini ale plăcuțelor de înmatriculare de la miliarde de mașini parcate în afara caselor, magazinelor și clădirilor de birouri și care a vândut accesul la baza sa de date către aproximativ 3.000 de agenții locale de aplicare a legii începând cu 2016.
Vigilant comercializează, de asemenea, diverse produse de recunoaștere facială, cum ar fi FaceSearch, către diferite agenții federale și guvernamentale americane, printre care Departamentul de Justiție și Departamentul pentru Securitate Internă.
O altă companie, ODIN Intelligence, colaborează cu departamentele de poliție și agențiile guvernamentale locale pentru a menține o bază de date cu persoanele fără adăpost, folosind recunoașterea facială pentru a le identifica și a căuta informații personale sensibile, cum ar fi vârsta, istoricul arestării, istoricul locuințelor temporare și asociații cunoscuți.
La nivelul publicului larg, cei mai mulți americani sunt de părere că utilizarea pe scară largă a recunoașterii faciale poate într-adevăr ajuta la rezolvarea infracțiunilor (78%) și la găsirea persoanelor dispărute (74%), arată un studiu Pew Research Center. Însă, în același timp, ei cred și că există posibilitatea ca forțele de ordine să folosească acest tip de tehnologie pentru a supraveghea preponderent anumite comunități etnice și/sau religioase.
În ceea ce privește impactul general potențial, 46% dintre adulții din SUA spun că utilizarea pe scară largă a tehnologiei de recunoaștere facială de către poliție ar fi o idee bună pentru societate, în timp ce 27% cred că ar fi o idee proastă. Restul de 27% sunt (încă) indeciși.
La polul opus al spectrului, Evan Greer, director adjunct al grupului de advocacy Fight for the Future, spune că tehnologia de recunoaștere facială ar trebui interzisă peste tot în lume, deoarece guvernele au folosit-o deja pentru a persecuta grupurile minoritare și a suprima disidența; Rusia și China, printre altele, au implementat recunoașterea facială avansată în camerele de supraveghere din orașe.
Comentând percepția publicului, Kaitlin Jackson crede că poate fi foarte ușor pentru oamenii care nu au nicio tangență cu sistemul de justiție penală să nu își facă griji în ceea ce privește recunoașterea facială. Însă, spune ea, este o greșeală.
„Cred că oamenii își spun ceva de genul: «Așa ceva nu mi s-ar putea întâmpla niciodată, pentru că sunt o persoană care respectă legea». Numai că nimeni nu îți poate garanta că nu poți semăna cu cineva care a comis o infracțiune. Iar într-un astfel de caz, nimeni nu e la adăpost de erorile tehnologiei.“
Acest articol a apărut în numărul 160 al revistei NewMoney
FOTO: Getty