Când vine vorba despre tehnologia de recunoaștere facială și folosirea ei de către forțele de ordine, rămân câteva lucruri mai greu de recunoscut

Romulus Deac 07/04/2023 | 10:19 Digital
Când vine vorba despre tehnologia de recunoaștere facială și folosirea ei de către forțele de ordine, rămân câteva lucruri mai greu de recunoscut

Cu ceva vreme în urmă, Kaitlin Jackson, un apărător public din Bronx (New York City, SUA), a fost desemnată să reprezinte în in­stanță un bărbat acuzat că ar fi furat o pe­reche de șosete dintr-un magazin TJ Maxx. Bărbatul s-a apărat spunând că nici măcar nu ar fi avut cum să fie el hoțul, deoarece în momentul în care a avut loc furtul aștepta nașterea fiului său, într-un spital aflat la câțiva kilometri distanță.

Dar lucrul cel mai greu de înțeles din toată povestea părea să fie cum a reușit po­liția să îl identifice, la câteva luni de la furt și fără să existe în dosarul de acuzare mă­car o descriere fie și vagă a presupusului autor.

Jackson a sunat la biroul Procu­rorului Districtual din Bronx, iar cineva de acolo i-a explicat că poliția i-a identificat clientul analizând cu un algoritm de recu­noaștere facială înregistrările video făcute de camerele din magazin.

Singurul martor la furt, un agent de securitate al TJ Maxx, i-a spus ulterior că poliția i-a trimis o fotografie a clientului ei, întrebându-l sec prin­tr-un SMS: „El este tipul?“.

Obiecțiile lui Jackson l-au determinat pe un ju­decător să ordone o audiere pentru a sta­bili dacă procesul de identificare a fost sau nu influențat/viciat de polițiști. La scurt timp după aceea, procurorii i-au ofe­rit clientului ei o înțelegere: să pledeze vi­no­vat, iar în schimb să fie condamnat la perioada pe care o petrecuse între timp în arestul preventiv, astfel încât să fie eliberat imediat.

Bărbatul, care era deja închis de apro­ximativ șase luni, a fost de acord. „Mi-ar fi plăcut să merg mai departe, să ajung la audieri și la proces, pentru că ar fi fost achi­tat. Dar nu avea niciun sens pentru el să mai stea în închisoare și să aștepte asta. Își dorea doar să își continue viața“, povestea Jackson pentru New York Magazine.

Suspecți de (de)serviciu

Neobișnuit în toată această poveste cu valențe kafkiene e chiar și simplul fapt că procurorul de caz i-a spus lui Jackson cum a fost identificat clientul ei. În majoritatea statelor ame­ricane, nici poliția, nici procurorii nu sunt obligați să dezvăluie când recunoaș­terea facială este folosită pentru a identifica o persoană suspectată de comiterea unei infracțiuni.

Avocații apărării spun că acest lucru îi dezavantajează din start, întrucât nu pot contesta potențialele erori fă­cute de tehnologia de recunoaștere fa­cială. Mai ales în condițiile în care studiile de specialitate au demonstrat că astfel de sisteme excelează doar în identificarea băr­baților albi, de vârstă mijlocie, în cazul că­rora se înregistrează o rată de succes de 99%. În schimb, continuă să aibă probleme în ceea ce privește persoanele cu ten închis, femeile și copiii.

Potrivit Institutului Național de Standarde și Tehnologie (NIST), o agenție gu­ver­namentală americană aflată în subordi­nea Departamentului de Comerț, riscul ca o persoană cu ten închis să fie identificată greșit este de 10 până la 100 de ori mai mare decât în cazul uneia albe.

Numai în New Jersey, între ianuarie 2019 și aprilie 2021, astfel de recunoașteri eronate au dus la arestarea nejustificată a 228 de persoane.

„Utilizarea tehnologiei de recunoaștere facială nu ar trebui să fie un secret. Mai ales că poate reprezenta o problemă atât de mare în cauzele penale“, spune Anton Robinson, avocat la Innocence Project, o or­ganizație nonprofit dedicată eliberării din închisoare a persoanelor care au fost condamnate pe nedrept.

Iar identificarea greșită este una dintre cauzele principale în trimiterea unor oameni nevinovați la închisoare. Indiferent cine o face.

Cei de la Project Innocence au constatat că mai mult de două treimi dintre persoa­nele exonerate pe baza unor probe ADN ulterior condamnărilor au fost identificate greșit de martori.

Și e un fapt demonstrat că martorii oculari pot avea dificultăți să recunoască persoane pe care nu le cunosc, mai ales când acestea provin din me­dii rasiale sau etnice diferite de cele ale lor.

Unele departamente de poliție din SUA au adoptat în ultima vreme politici care guvernează utilizarea recunoașterii faciale, cum ar fi obligativitatea ca doi specialiști să examineze rezultatele unei scanări înainte ca rezultatele să fie predate detectivilor.

Totodată, aceleași politici stabilesc că recunoașterea facială în sine nu (mai) poate fi folosită ca probă justificativă pentru a solicita și pune în practică un mandat de percheziție sau de arestare.

Numai că, din câte afirmă Jackson, po­li­ția ascunde adesea utilizarea programelor de recunoaștere facială, atribuind unui mar­tor identificarea unui suspect.

Matematica, oglinda chipului

În mod normal, căutările de recunoaștere facială care duc la acuzații penale au ca punct de plecare o imagine, cel mai adesea surprinsă de camere de securitate. Fotografia în cauză este rulată printr-un sistem cu inteligență artificială (AI) care o com­pară cu portretele deja existente în baze mari de date, cum ar fi cazierele, permisele de conducere sau actele de identitate.

Sistemul din Florida, de exemplu, include peste 13 milioane de fotografii de cazier și 25 de milioane de portrete pentru permise de conducere. Un analist uman analizează ulterior rezultatele căutării, selectează posibilele potriviri și le predă apoi anchetatorilor.

Rezultatele unei căutări pot include sute de fotografii, fiecare potrivire potențială având un așa-numit scor de încredere. Prac­tic, cu cât scorul unei imagini returnate de algoritmul AI este mai mare, cu atât mai sigură poate fi considerată identificarea. Imaginile cu scorurile cele mai mari le sunt apoi arătate martorilor oculari. Dacă suspecții sunt recunoscuți, identificarea lor este atribuită însă exclusiv martorilor umani, nu (și) tehnologiei.

Vorbind despre ratele de eroare, Patrick Grother, șeful Departamentului de Biome­trie din cadrul NIST, spune că acestea au scăzut cu 90% de când institutul a început să testeze, în 2018, astfel de sisteme. Algo­ritmii sunt mai buni acum la analiza imagi­nilor de calitate scăzută și la recunoașterea figurilor îmbătrânite, iar unii au făcut progrese inclusiv în recunoașterea fețelor surprinse din lateral sau parțial acoperite.

Cu toate acestea, rămân o mulțime de factori care pot influența rezultatele, de la ilumi­na­re și calitatea imaginii la vârstă și tră­sături individuale. Un test al NIST, realizat în mare parte pe o bază de fotografii de înaltă calitate, a constatat că până și cei mai buni algoritmi pot comite erori în mai mult de 20% dintre cazuri.

O altă (mare) problemă ar fi aceea că există puține reguli care reglementează tipul de imagini pe care poliția le poate tran­smite sistemelor de recunoaștere fa­cială. Într-un caz mai vechi, poliția din New York a avut o informație că un suspect de furt semăna cu Woody Harrelson, așa că a folosit o fotografie a actorului ca imagine de probă pentru comparațiile făcute de un algoritm AI, pentru a aresta în cele din urmă a zecea persoană care a apărut pe o listă furnizată de acesta.

În alte dosare, po­liția a trimis pentru identificare portrete-robot, desenate de artiști pe baza descrie­rilor făcute de martori oculari.

Acolo unde noi vedem o față desenată, teh­nologia de recunoaștere vede o mul­țime de date. Practic, software-ul de recu­noaștere facială citește geometria fețelor, identificând nu mai puțin de 68 de repere faciale cheie – cum ar fi distanța dintre ochi, adâncimea orbitelor, distanța de la frunte la bărbie, forma pomeților, conturul buzelor, al urechilor și al bărbiei –, cu ajutorul cărora creează o așa-numită am­prentă facială; o formulă matematică, în fapt, care este comparată apoi cu baze de fețe cu identitate cunoscută.

Coșmarul libertăților civile

Po­pu­larizată odată cu integrarea în telefoa­nele mobile, tehnologia de recunoaștere fa­cială a apărut într-o formă primitivă încă din anii ’60, când matematicianul și informaticianul Woodrow Wilson Bledsoe a dez­voltat un sistem de măsurători ale fețe­lor, cu ajutorul căruia acestea puteau fi încadrate în diferite categorii.

Conceptul a fost preluat rapid de forțele de ordine, care au început să își dezvolte propriile sis­teme de recunoaștere facială. Anul oficial de naștere al tehnologiei, așa cum o știm astăzi, rămâne însă pentru mulți 2001, când forțele de ordine americane au folosit-o pentru identificarea din mulțime a oamenilor prezenți la un mare eveniment sportiv, Super Bowl XXXV.

În momentul de față, unul dintre cei mai importanți furnizori comerciali de tehnologie de recunoaștere facială pentru agențiile de aplicare a legii este Clearview AI. Din 2017 încoace, compania americană practic a „ras“ 20 de miliarde de imagini disponibile pe rețelele sociale și diferite alte site-uri publice, cu ajutorul cărora algoritmul său poate identifica instantaneu pe cineva, după cum pretinde CEO-ul Hoan Ton-That.

Cei de la The New York Times scriau la un moment dat că algoritmul respectiv poate fi asociat cu ochelari cu realitate augmen­tată, astfel că utilizatorii nu doar că ar putea afla în timp real numele fiecărei persoane pe care o văd, ci și unde locuiesc, cu ce se ocupă și pe cine cunosc.

Compania a apărut pe radarul public în 2019, după ce procurorii din Florida au acuzat o femeie că ar fi furat dintr-un ma­ga­zin două grătare și un aspirator. A fost identificată după ce o captură video de la o cameră de supraveghere a fost analizată de algoritmul Clearview AI, care i-a dus pe anchetatori către pagina ei de Facebook. Un tatuaj vizibil în videoclipul în cauză și în fotografiile de pe rețeaua socială i-au confirmat identitatea.

Potrivit unei liste scurse în internet, prin­tre clienții Clearview AI s-ar afla FBI, Serviciul de Cetățenie și Imigrări al SUA, Departamentul de Justiție al SUA, Interpol și alte peste 3.000 de agenții locale și fe­derale americane de aplicare a legii, precum și mari companii precum AT&T, Verizon, T-Mobile, Best Buy, Eventbrite, Las Vegas Sands, Coinbase, Bank of America, Wal­mart sau Kohl’s. Adică „un coșmar pen­tru confidențialitatea, securitatea și libertățile civile“, după cum declara pentru CNET Nathan Freed Wessler, din echipa de avocați a Uniunii Americane pentru Liber­tăți Civile.

„Agențiile guvernamentale nu ar trebui să ne confrunte fețele cu o bază de date adunate în condiții dubioase, în secret, și fără garanții împotriva abuzurilor“, mai spunea acesta.

Potrivit aceleiași surse, algoritmii Clearview AI ar fi folosiți de agenții de aplicare a legii din Australia, Canada, Marea Britanie, Belgia, Brazilia, Danemarca, Elveția, Fin­landa, Franța, India, Italia, Letonia, Lituania, Malta, Norvegia, Portugalia, Serbia, Slovenia, Spania, Suedia și Țările de Jos. Conform unor estimări recente, șapte din zece guverne ale lumii folosesc la scară largă dife­rite tehnologii de recunoaștere facială.

Orice asemănare cu realitatea e…

După izbucnirea conflictului militar din Ucraina, Clearview AI și-a oferit gratuit serviciile autorităților de la Kiev, iar aplicația sa a fost folosită până acum de cinci agenții guvernamentale din țara vecină (și) pentru a-i identifica pe soldații morți, cu scopul de le anunța familiile despre soarta lor.

Acest gen de implicare a companiilor private de tehnologie în conflicte armate a ridicat însă câteva semne de întrebare, cri­ticii avertizând că acestea ar putea profita de o criză pentru a se extinde relativ ne­stin­­gherite și că orice greșeală făcută de un software sau de cei care îl folosesc ar pu­tea avea consecințe grave într-o zonă de război.

În momentul de față, Clearview AI se con­fruntă cu mai multe procese civile în Statele Unite pentru încălcarea unor drepturi, iar utilizarea de către companie a fo­to­grafiilor oamenilor fără consimță­mân­tul acestora a fost declarată ilegală în Ca­nada, Marea Britanie, Franța, Australia și Italia.

Dar Clearview AI este doar una dintre nu­meroasele companii private cu care agen­țiile guvernamentale din SUA se aso­ciază pentru a colecta și procesa informații cu caracter personal. Un alt exemplu este Vigilant Solutions, care captează imagini ale plăcuțelor de înmatriculare de la miliarde de mașini parcate în afara caselor, ma­gazinelor și clădirilor de birouri și care a vândut accesul la baza sa de date către aproximativ 3.000 de agenții locale de aplicare a legii începând cu 2016.

Vigilant co­mercializează, de asemenea, diverse pro­duse de recunoaștere facială, cum ar fi FaceSearch, către diferite agenții federale și guvernamentale americane, printre care Departamentul de Justiție și Departamentul pentru Securitate Internă.

O altă companie, ODIN Intelligence, co­la­borează cu departamentele de poliție și agențiile guvernamentale locale pentru a menține o bază de date cu persoanele fără adăpost, folosind recunoașterea facială pentru a le identifica și a căuta informații personale sensibile, cum ar fi vârsta, isto­ricul arestării, istoricul locuințelor temporare și asociații cunoscuți.

La nivelul publicului larg, cei mai mulți americani sunt de părere că utilizarea pe scară largă a recunoașterii faciale poate într-adevăr ajuta la rezolvarea infracțiu­ni­lor (78%) și la găsirea persoanelor dis­pă­rute (74%), arată un studiu Pew Research Center. Însă, în același timp, ei cred și că există posibilitatea ca forțele de ordine să folosească acest tip de tehnologie pentru a supraveghea preponderent anumite comunități etnice și/sau religioase.

În ceea ce privește impactul general potențial, 46% dintre adulții din SUA spun că utilizarea pe scară largă a tehnologiei de recu­noaștere facială de către poliție ar fi o idee bună pentru societate, în timp ce 27% cred că ar fi o idee proastă. Restul de 27% sunt (încă) indeciși.

La polul opus al spectrului, Evan Greer, director adjunct al grupului de advocacy Fight for the Future, spune că tehnologia de recunoaștere facială ar trebui interzisă peste tot în lume, deoarece guvernele au folosit-o deja pentru a persecuta grupurile minoritare și a suprima disidența; Rusia și China, printre altele, au implementat recunoașterea facială avansată în camerele de supraveghere din orașe.

Comentând percepția publicului, Kaitlin Jackson crede că poate fi foarte ușor pentru oamenii care nu au nicio tangență cu sistemul de justiție penală să nu își facă griji în ceea ce privește recunoașterea fa­cială. Însă, spune ea, este o greșeală.

„Cred că oamenii își spun ceva de genul: «Așa ceva nu mi s-ar putea întâmpla niciodată, pentru că sunt o persoană care respectă legea». Numai că nimeni nu îți poate garanta că nu poți semăna cu cineva care a comis o infracțiune. Iar într-un astfel de caz, nimeni nu e la adăpost de erorile teh­no­logiei.“

Acest articol a apărut în numărul 160 al revistei NewMoney

FOTO: Getty