Categorii

Cât de sigură și precisă este tehnologia automată de recunoaștere a feței instalată la intrare

Poliția și forțele de securitate din întreaga lume testează sisteme automate de recunoaștere a feței, pentru a le folosi ca instrument de identificare a criminalilor și teroriștilor. Dar cât de precisă este această tehnologie și cât de ușor este aceasta și inteligența artificială (AI), pe baza căreia funcționează, devin instrumente de persecuție și opresiune?

Caracteristicile sistemului

Imaginați-vă că un suspect de terorist este trimis într-o misiune de sinucidere într-un centru oraș dens populat. Dacă aruncă o bombă, sute de oameni pot muri sau pot fi răniți grav. Procedura de scanare a fețelor într-o mulțime folosind supravegherea video vă permite să identificați un atacator și să comparați automat caracteristicile acestuia cu fotografiile dintr-o bază de date a unor teroriști celebri sau „persoane de interes” cu serviciile de securitate.

În caz de coincidență, sistemul ridică alarma, iar forțele antiteroriste de reacție rapidă sunt trimise la locul unde „neutralizează” suspectul înainte de a putea activa explozivii. Sute de vieți salvate datorită tehnologiei moderne.

Probleme posibile la locul de muncă

Dar dacă tehnologia de recunoaștere a feței (FR) nu ar funcționa corect? Și s-a dovedit a nu fi un terorist, ci o persoană obișnuită, care a fost doar ghinionistă și s-a dovedit a fi ca un atacator. O viață nevinovată ar fi fost pur și simplu distrusă, deoarece și experții credeau într-un sistem eronat. Dar dacă se dovedește a fi o astfel de persoană?

Aceasta este doar una dintre dilemele etice care se confruntă cu sistemul de recunoaștere a feței și a inteligenței artificiale. Este cu adevărat dificil să instruiți mașini pentru a „vedea”, recunoaște și distinge obiectele și fețele. Folosind viziunea computerului, așa cum se numește uneori, nu cu mult timp în urmă, cercetătorii au încercat să determine diferența dintre chifle cu stafide și chihuahua, care a devenit un fel de test litmus pentru determinarea eficienței acestei tehnologii.

Faceți dificultăți de recunoaștere

Tehnologii de calculatoare, Joy Buolamvini, reprezentând laboratorul de la Institutul de Tehnologie din Massachusetts (și, în același timp, fondatorul Ligii de Justiție Algoritmică) și Timnit Gebru, co-director tehnic al echipei Google pe probleme etice legate de inteligența artificială, au arătat că sistemul de recunoaștere facială este dificil distinge între bărbați și femei dacă pielea lor este suficient de întunecată. Sistemul confunda destul de des femeile cu pielea întunecată pentru bărbați.

„Aproximativ 130 de milioane de americani adulți sunt deja pe baze de date de recunoaștere a feței”, a spus dr. Gebru în mai, la AI pentru Summit-ul bun de la Geneva. „Dar seturile de date originale conțin în mare parte reprezentanți ai rasei albe, dintre care există mult mai mulți bărbați.” Prin urmare, atunci când recunoaștem persoanele cu un tip de piele mai închis, există încă un procent mare de erori din cauza tipului de piele și a genului.

Utilizarea tehnologiei

Orașul din California, San Francisco, a interzis recent utilizarea recunoașterii feței de către agențiile de transport și de aplicare a legii în recunoașterea imperfecțiunilor și amenințărilor la adresa libertăților civile. Dar alte orașe din Statele Unite și alte țări ale lumii continuă să experimenteze această tehnologie.

În Marea Britanie, de exemplu, forțele de poliție din Țara Galilor de Sud, Londra, Manchester și Leicester testează această tehnologie, care îngrozesc organizațiile pentru libertăți civile precum Liberty și Big Brother Watch, care sunt îngrijorate de numărul de meciuri false care au loc în timpul funcționării sistemului.

Greșeli și frici

În practică, acest lucru înseamnă că oamenii nevinovați sunt numiți în mod greșit potențiali criminali. Potrivit Dr. Gebru, astfel de probleme ar trebui să creeze cu siguranță îngrijorarea tuturor, utilizarea unor astfel de măsuri preventive și predictive implică rate mari.

Având în vedere că americanii negri constituie 37,5% din totalul deținuților din pușcărie din Statele Unite (conform Biroului Federal al Penitenciarelor), în ciuda faptului că acestea reprezintă doar 13% din populația americană, algoritmi slab scriți folosind seturile de date disponibile în prezent pot prezice că oamenii negri au mai multe șanse să comită o infracțiune. Nu trebuie să fiți un geniu pentru a înțelege ce poate însemna acest lucru pentru politicile politice și sociale.

Mai recent, oamenii de știință de la Universitatea Essex au ajuns la concluzia că coincidențele utilizate în procesele efectuate la poliția din Londra au fost greșite cu 80%, ceea ce ar putea duce la încălcări grave ale justiției și încălcarea dreptului cetățenilor la confidențialitate.

Un britanic, Ed Bridges, a început un proces privind utilizarea tehnologiei de recunoaștere a feței de către poliția din Țara Galilor de Sud după fotografia sa a fost făcută în timp ce făcea cumpărături, iar comisarul britanic pentru informații, Elizabeth Denham, și-a exprimat îngrijorarea cu privire la lipsa unui cadru legal care să reglementeze utilizarea tehnologiei de recunoaștere.

Dar astfel de temeri nu au împiedicat gigantul tehnologic Amazon să-și vândă instrumentul Rekognition FR către forța de poliție din SUA, în ciuda unei revolte șovăitoare din partea acționarilor care încă nu au dus la nimic.

perspective

Amazon spune că nu este responsabil pentru modul în care clienții își folosesc tehnologia. Dar comparați această relație cu Salesforce, o tehnologie pentru managementul relațiilor cu clienții, care a dezvoltat propriul instrument de recunoaștere a imaginii numit Einstein Vision.

„Tehnologia de recunoaștere a feței poate fi adecvată într-o închisoare pentru a urmări prizonierii sau pentru a preveni violența în bandă”, a declarat BBC Salesforce, un expert în domeniul eticii de inteligență artificială la BBC. Însă, când poliția a dorit să o folosească împreună cu camerele foto pentru arestarea oamenilor, compania a găsit acest lucru necorespunzător. În acest caz, ar trebui să ne întrebăm dacă este necesară utilizarea AI în general în anumite scenarii, iar unul dintre exemple este recunoașterea feței.

În prezent, această tehnologie este folosită și de către armată, deoarece furnizorii de tehnologie susțin că software-ul lor nu poate doar să identifice potențialii dușmani, ci și să recunoască un comportament suspect.


Adaugă un comentariu
×
×
Sigur doriți să ștergeți comentariul?
șterge
×
Motiv pentru plângere

afaceri

Povești de succes

echipament