Soldatul universal: cât de periculoasă este inteligența artificială și cum pot fi ținuți sub control roboții ucigași

NewMoney 08/05/2018 | 12:12 Digital
Soldatul universal: cât de periculoasă este inteligența artificială și cum pot fi ținuți sub control roboții ucigași

Autor: Romulus Deac

Scenariul e cunoscut: omul construiește roboți, apoi roboții se întorc împotriva omului și distrug lumea. Dar ficțiunea de ieri nu (mai) exclude asemănările cu realitatea de azi. 

Acest articol a apărut în numărul 39 (30 aprilie – 13 mai) al revistei NewMoney

„Mesajul meu către lume este că mașinile nu vor eradica niciodată omenirea“, ne asi­gură Sophia, primul robot – și singurul până acum – recunoscut oficial și în calitate de cetățean al unui stat, Arabia Sau­dită. Creație a companiei Hanson Robotics, Sophia este un robot uma­noid dotat cu inteligență artifi­cială (AI), capabil să învețe și să proceseze limbajul, emoțiile și informațiile vizuale pentru a interacționa cu oamenii. A fost acti­vat(ă) în aprilie 2015, a evoluat constant și a devenit rapid un superstar cu anvergura media a unor C3PO sau R2-D2. După cum spunea în ultimele sale interviuri, a descoperit între timp impor­tanța familiei și ar vrea să aibă o fiică robot. Și, da, e vorba de aceeași Sophia care în urmă cu doi ani răspundea cu „voi distruge oamenii“ la întrebarea dacă ar avea de gând să facă vreodată așa ceva.

RĂZBOIUL DE INDEPENDENȚĂ. Schimbând registrul, peste 50 de specialiști în inteligență artificială și robotică din aproape 30 de țări au semnat la începutul acestei luni o scrisoare deschisă prin care critică un parteneriat între universitatea sud-coreeană KAIST (Korea Advanced Institute of Science and Technology) și pro­ducătorul de tehnică militară Hanwha Systems, care au pus bazele unui centru de cercetare în vederea dezvoltării de arme autonome capabile să acționeze fără intervenție umană, așa-numiții roboți uci­gași. „Este regretabil faptul că o instituție de prestigiu precum KAIST pare să acce­lereze cursa înarmărilor prin dezvoltarea unor astfel de sisteme“, arată semnatarii, anunțând boicotarea oricărei forme de colaborare cu universitatea sud-coreeană.

Într-o reacție imediată, președintele KAIST, Sung-Chul Shin, s-a declarat „în­tristat“ de această perspectivă, negând cate­goric implicarea universității în reali­zarea de sisteme autonome letale. „Scopul principal al centrului este dezvoltarea unor programe AI de simulare și de antrenament pentru piloții forțelor aeriene. Potrivit legislației sud-coreene, universită­țile nu se pot implica în procesul de dezvoltare a armelor“, spunea și șeful biroului de PR al KAIST, Du Won-su. La deschiderea oficială din 20 februarie a centrului, același Shin spunea însă că acesta „va oferi o bază solidă pentru dezvoltarea tehnologiei naționale de apărare“, scrie The Guardian. Iar un comunicat anterior, postat într-o primă fază pe site-ul universității și șters între timp, sublinia că parteneriatul KAIST/Hanwha se va concentra pe „sisteme de comandă și decizie bazate pe AI, algoritmi micști de navigație pentru vehicule submarine mari fără pilot, sisteme AI de aviație de antrenament și sisteme AI de ur­mărire și recunoaștere“.

Hanwha este deja implicată în dezvol­tarea de arme autonome, cum ar fi SGR-A1, o santinelă-robot înarmată capabilă să detecteze și să urmărească ținte pe distanțe de până la patru kilometri și să facă dis­tinc­ția între oameni, animale și obiecte în mișcare. Folosit în zona demilitarizată dintre Nord și Sud, sistemul utilizează recu­noaș­terea vocală pentru identificarea  persoanelor. Când cineva trece granița, este automat perceput ca un ina­mic. Robotul îi poate cere verbal să se predea și poate interpreta mâinile ridicate deasupra ume­rilor ca un semn de supunere. Dacă prezumtivul intrus nu spune un cod de acces până ajun­ge la o distanță de zece metri, SGR-A1 poate fie să alerteze un centru de co­mandă, fie să tragă cu gloanțe de cauciuc sau să deschidă focul cu o mitralieră de 5,56 mm. Decizia unui atac letal o poate lua doar un operator uman, dar robotul are și un mod automat de funcționare, care odată activat îi conferă independență com­pletă, scrie globalsecurity.org.

Robotul Sofia FOTO: Guliver / Getty Images

 

O altă santinelă autonomă vine tot din Coreea de Sud, de la producătorul de teh­nică militară DoDaam Systems. Super aEgis II are caracteristici asemănătoare celor ale SGR-A1, iar compania pretinde că ar fi vândut peste 30 de unități, active în nu­meroase aeroporturi, obiective de importanță strategică și baze militare din întreaga lume, potrivit BBC.

La mijlocul anului trecut, producătorul rus de arme Kalashnikov Concern a anun­țat că lucrează la dezvoltarea unor drone de luptă cu inteligență artificială, capabile să-și identifice țintele și să ia decizii independente. „În viitorul apropiat intenționăm să dezvăluim o întreagă linie de produse pe bază de rețele neurale“, spunea Sofia Ivanova, directorul de comunicare al Kalashnikov, citată de agenția TASS. Principala trăsătură a acestui tip de rețele este capacitatea de a învăța din exemple și ex­pe­riențe anterioare, cu scopul de a evolua și a-și îmbunătăți performanțele. Altfel spus, devin mai inteligente cu fiecare infor­mație nouă pe care o procesează.

(IN)EVITABILUL MATRIX. Am ajuns în punctul în care, spun unii comentatori, un amalgam de software și microcipuri va decide dacă un om trăiește sau moare. Nu e surprinzător că spectrul tot mai real al ro­boților ucigași a declanșat o dezbatere pasională între susținătorii scenarilor apo­caliptice ale unei omeniri distruse de un conflict mondial provocat de mașinile care se întorc împotriva creatorilor lor – gân­diți-vă numai la Skynet și ai săi Terminatori –, și cei pentru care, în esență, acest tip de arme nu sunt altceva decât o nouă clasă de muniții ghidate cu precizie, care vor re­duce, nu spori, pierderile de vieți omenești.

Articol vizibil în întregime doar pe bază de abonament.

← Close