Skip to main content
informatikajogközigazgatás: külföldöntechnika

Az arcfelismerő rendszerek szabályozásának problémáival küszködik az amerikai közigazgatás

Szerző: 2019. május 26.No Comments

„A washingtoni meghallgatáson sok minden kiderült a hatóságok által is alkalmazott technológiák zavarba ejtő hiányosságairól és az átláthatatlan, szabályozatlan felhasználásról.

Szerdán egy amerikai alsóházi bizottság előtt a mesterséges intelligenciát kutató szakemberek, jogászok és hatósági képviselők is az arcfelismerő MI-technológiák szabályozásának szükségességéről győzködték a képviselőket. A fotókat és videofelvételeket elemző MI szoftverek technikai kérdései vagy társadalmi hatásai ma már felkapott témának számítanak, sokszor olvasni azokról a pontatlanságokról, amelyeket az ilyen szoftverek működése során tapasztalnak a fejlesztések során vagy akár a gyakorlati felhasználásban. Legutóbb San Franciscóban tiltották el a helyi kormányzati szervezeteket az ilyen technológiák alkalmazásától, de a beszámolók szerint a nagyváros csak a legelső azoknak az amerikai településeknek a sorában, ahol hasonló intézkedésekre lehet számítani.

A javaslattal egyébként még januárban állt elő a San Franciscó-i városi tanács egyik tagja, beadványában pedig azt a mindenhol ugyanilyen releváns szempontot vetette fel, hogy a polgári- és szabadságjogokat érintő kockázatok lényegesen meghaladják az arcfelismerő technológiák használatából származó, ezidáig még csak nem is igazolt előnyöket. Ahogy arról egyre többet hallhatunk, az algoritmusok gyakran jutnak hamis vagy elfogult eredményekre, ami komoly társadalmi problémákat okozhat vagy mélyíthet tovább. A rossz attitűdök leképezésére és matematikai-statisztikai alapú újratermelésére jó példa a faji előítélet megjelenése, ami a szóban forgó bizottsági meghallgatáson is felmerült.

Az ülés több mint háromórás felvételét kivonatoló riportok az Algorithmic Justice League alapítóját, Joy Buolamwinit idézik, aki az arcfelismerő technológiák előnyeit és hátrányait vizsgáló aktivista csoport nevében a piacosított technológiákról beszélt. Vizsgálataik szerint igazolható, hogy a szóban forgó modellek különösen a sötétebb bőrű nők esetében hajlamosak a tévedésre: a IBM rendszere például 34,7 százalékban produkál ilyenkor hamis eredményeket, ami nyilvánvalóan messze az elfogadható szint fölött van. Buolamwini szerint a problémát legelsősorban a rendszerek tanítására használt adatkészletekben kell keresni, miután a mesterséges intelligencia értelemszerűen gyengébben teljesít az olyan felvételek elemzésekor, amilyenekkel még sohasem találkozott, így a jellemzően fehér férfiak fotóival tanított algoritmus zavarba jön, ha fekete nőket kell azonosítania.

Az adatok begyűjtése és felhasználása is problémás
A Georgetown University személyiségi jogi és technológiai központjának képviselőjének beszámolójából az is kiderült, bűnügyi nyilvántartásban szereplő képek esetében éppen fordítva működik a dolog, mivel ott a feketék aránya magasabb. Clare Garvie ezzel kapcsolatban kifejtette, hogy az ilyen torz adatkészlettel trenírozott MI-k ugyancsak hajlamosabbak a tévedésekre, ami aztán azt eredményezi, hogy a rendőrök rendszeresen másokat gyűjtenek be, mint akiket valójában kellett volna – ez pedig az alkotmányos jogok sérelmének számít. Különösen, hogy az Egyesült Államokban a hatóságok legalább negyede használ már valamilyen formában arcfelismerő rendszereket.

A rendőrségi beszállítók közül az Amazon egyik alelnöke, aki ugyancsak tanúként hallgattak meg, elmondta ugyan, hogy nem igazán kapnak bejelentéseket a tévedésekről, a beszámolók azonban azt is világossá teszik, hogy a rendőrség egyáltalán nem transzparens az arcfelismerő technológiák gyakorlati felhasználásával kapcsolatban. Az FBI-jal például 18 szövetségi állam osztott meg az útlevelekben vagy a vezetői engedélyekben szereplő fotókat az érintettek bármilyen hozzájárulása nélkül, és amikor a bizottsági meghallgatáson az illetékeseket arra szólították fel, hogy pontosan határozzák meg, milyen adatokat osztanak meg egymással a kormányügynökségek, egyikük sem volt képes válaszolni.

Az American Civil Liberties Union (ACLU) nevű non-profit jogvédő már korábban is kísérletileg igazolta, hogy az Amazon Rekognition arcfelismerő simán körözött bűnözőként azonosítja az amerikai törvényhozás bizonyos képviselőit. Ebből persze könnyű poénokat gyártani, de a szervezet most újra az arcfelismerő rendszerek használatának átmeneti felfüggesztését sürgette, a kongresszus későbbi engedélyéhez kötve, hogy mikor állíthatnak ismét alkalmazásba ilyen technológiákat. Azt feltételezve egyébként, hogy már az USA-ban is több mint 50 millió megfigyelő kamera működik, az állampolgárok nagyjából fele egész biztosan szerepel a rendszerek tanítására használt adatkészletekben, anélkül, hogy erről tudomása lenne, maga az MI alapú megfigyelés pedig a felszólalók szerint túlságosan erőteljes eszköz ahhoz, hogy ennyire szabályozatlan keretek között használják.

Végleges tiltás helyett felelős újratervezést akarnak
Bár az amerikai legfelsőbb bíróság már vizsgálja a kérdést, de nyilvánvaló, hogy nem fog egyhamar döntés születni, így csak a törvényalkotók képesek gyors lépéseket tenni a valós idejű fenyegetettségekkel szemben. Bár az arcfelismerő technológiákat nem akarja mindenki en bloc tiltólistára tenni, azt még a megengedőbb álláspontot képviselő szakemberek is elismerik, hogy a felelős felhasználáshoz legelőször is rendezni kell a rendszerek betanításának gyakorlatait – ez pedig a fentiek alapján olyan feladat, amit semmiképpen sem szabad teljes egészében átruházni a technológiát szállító vállalatokra.

Bár az amerikai szabványügyi szervezet (NIST) jelenleg is végez benchmark teszteket a kereskedelmi forgalomba hozott arcfelismerő rendszerekkel, a meghallgatás során felmerült, hogy már ezek a tesztek és a hozzájuk használt, elvileg zsinórmértéknek tekintett adatkészletek is jelentősen torzítanak. Így simán előfordul, hogy a kísérleti fázisban majdnem száz százalékos pontossággal működő modellek egyszerűen szétesnek, amikor az éles felhasználásban rájuk küldik mondjuk egy rendőrségi adatbázis alacsony felbontású, szemcsés és eleve másféle alanyokat ábrázoló felvételeit. Ahogy az a közelmúltban kiderült, néhol egyenesen kézzel rajzolt fantomképeket próbálnak feldolgoztatni az arcfelismerő rendszerekkel, máshol pedig színészek fotóival próbálják a kicsalni a pozitív találatokat az adott hírességekre valamelyest hasonlító gyanúsítottak esetében.

A jogvédők szerint azonban az arcok már tényleg a magánszféra legvégső határát jelentik, így tovább már nem halogatható az aktuális hatósági gyakorlatok megfelelő szabályozása, illetve megfelelő szabályozás hiányában az arcfelismerő rendszerek használatának azonnali felfüggesztése.”

Forrás:
Kongresszusi bizottság előtt savazták az arcfelismerő rendszereket; Bitport.hu; 2019. május 24.
Lásd még:
San Francisco nem kér az arcfelismerésből; Bitport.hu; 2019. április 16.
San Francisco Bans Facial Recognition Technology; Kate Conger, Richard Fausset, Serge F. Kovaleski; The New York Times; 2019. május 14.