A kormány a gyermekvédelemre hivatkozva betiltotta az idei Pride felvonulást, megvonta a “gyermekellenes” értékeket hirdető LMBTQ+ emberektől a gyülekezés (egyébként alkotmányban védett) jogát. Megfélemlítő taktikáját a kormány azzal próbálja hitelessé tenni, hogy a rendezvényen résztvevők ellen arcfelismerő technológia (facial recognition technology, azaz FRT) bevetésével fenyeget, ami azért is hangzik nagyon ijesztően, mert a mostanság minden csapból is folyó technológia, a mesterséges intelligencia egyik fajtájáról van szó.
Valóban veszélyes kimenni a Pride-ra az idén?
Ezt a kérdést járja körül jogi szempontból a Társasag a Szabadságjogokért (TASZ) cikke, amelynek leírása szerint nem indokolt komolyabban tartani a jogi következményektől (a Budapest Pride pedig ebben a cikkben ad részletes beszámolót a jogi helyzetről). Ezek a cikkek azonban nem igazán vizsgálják, hogy hogy működik az FRT, s hogy az EU-s jogszabályok milyen hatással lehetnek a jogalkotásra, alkalmazásra. Ezért felkerestem a joghoz illetve az FRT-hez értő szakembereket, és szerveztem egy online beszélgetést, ahol ezeket a kérdéseket beszéltük meg.
Az esemény felvétele elérhető angolul a szervező, a svédországi Umeå Egyetem AI Policy Lab-jának honlapján.
A beszélgetés résztvevői Angelina, aki az amerikai Cornell Egyetem számítástechnikai asszisztens professzora, a felelősségteljes AI kutatója és az FRT jó ismerője, valamint Matilda, a svédországi Göteborg egyetem nemzetközi jog professzora, az AI és a jog kapcsolatának szakértője.
Az arcfelismerő technológia
A technológiának két fő típusa létezik, a one-to-one (egy az egyhez) és a one-to-many (egy a sokhoz) mapping. Előbbinek az a lényege, hogy egy felvett képet, amelyen egy személy jelenik meg, hozzá kell rendelni egy szintén egyetlen személyt ábrázoló képhez (például a határellenőrzés, amikor a rólad készült fotóról megállapítják, hogy ugyanaz-e az útleveledben szereplő kép). Ez a technika nagyon fejlett, de a feladata egyszerűbb. A Pride esetében egy-a-sokhoz alkalmazásról van szó, amikor egy, például rendőri vagy biztonsági kamera felvételén szereplő sok-sok ember képét kellene összehasonlítani a rendőrség adatbázisában szereplő képekkel, anélkül, hogy előre tudnánk, hogy kit keresünk. Angelina hangsúlyozta, hogy ez technikailag sokkal bonyolultabb feladat, ezért gyakrabban fordulhatnak elő téves felismerések. Ezzel együtt a kutatás már azt is kimutatta – emelte ki Angelina – hogy az FRT nagyon sokat fejlődött, ezért nem lehet abban bízni, hogy ne lenne képes egy-egy embert helyesen azonosítani.
Kérdésemre, hogy mik a technológia gyengéi, hogyan lehet esetleg kicselezni, Angelina azt felelte, hogy az FRT elsősorban formákkal dolgozik, az arc fornáit, mint például az orr, szem, vagy száj alakját használja fel egy arc felismeréséhez. Ezért az arcot eltakaró formák, vagy a formák sminkkel történő elváltoztatása járulhat hozzá, hogy elkerüljük a felismerést. A haj- vagy bőrszín festékes megváltoztatása kevésbé ígéretes–bár tegyük hozzá, hogy Angelina szerint ezek az eszközök közül egyik sem garanciája, hogy a technológia ne ismerjen fel bennünket. Én pedig azt tenném hozzá, hogy a TASZ közleménye szerint maszk hordása büntetőjogi eljárást vonhat maga után. Ezért, ha követni szeretnénk Angelina tanácsát, hogy elfedjük az arcunkat, érdemes lehet a Pride szelleméhez egyébként is közel álló drag műfaj formatárához nyúlni, amelyek hozzájárulhatnak a szem, száj, orr formájának elváltoztatásához, anélkül, hogy maszkhoz folyamodna az ember. Azt azonban tudni kell, hogy technikai szempontból a legnagyobb esélyt a technológia kicselezésére az arc formájának elrejtése, eltakarása adja–nyilván ezért alkották meg a jogot olyan formában, hogy ezt ellehetetlenítsék.
Na és az EU-s jogi helyzet?
Matilda sajnos nem festett valami derűs képet a jog képességéről, hogy megvédjen minket. Az EU-s jogoknak két külön ága vonatkozik erre a helyzetre. Az első a nemrég meghozott AI Törvény, ami meghatározza, hogy ki és hogyan használhatja a különböző AI technológiákat. Sajnos a magyar kormány által megfogalmazott használat, annak ellenére, hogy direkt és célzottan egy kisebbség megfélemlítése céljából történik, nem ütközik ezzel a törvénnyel, ha nem ott rögtön és helyben azonosítanak embereket a Pride-on. Márpedig kötve hiszem, hogy az arcfelismerést ott helyben elvégeznék, hanem nyilvánvalóan ezt retroaktív módon, valamilyen cégnél vagy központban teszik meg–a TASZ szerint egy hosszú és körülményes folyamat keretében. Tehát, az AI Törvény gyakorlatilag semmilyen módon nem alkalmazható, hogy arra hivatkozva álljunk ellent az FRT alkalmazásának.
Ezzel szemben az EU-s alapvető emberi jogok, amelyeket az emberi jogok európai egyezménye (European Convention on Human Rights, azaz ECHR) lefektetett, betiltják a nem vagy szexuális orientáció szerinti diszkriminációt, a törvény nem egyenlő alkalmazását ilyen szempontok alapján. Matilda tehát kiemelte, hogy egy személy, akit büntetéssel sújtanak, mert résztvett a Pride-on (akár beazonosította arcfelismerő technológia, akár nem), ezzel az üggyel fordulhat az Emberi Jogok Európai Bíróságához, amiért megkülönböztető eljárásban volt része, hisz a szexuális orientációja miatt vonják meg a gyülekezési jogát. Azonban sajnos Matilda ezzel az eljárással szemben sem volt túl derűlátó, egyrészt, mert hosszadalmas és bonyolult, és nem igazán elintézhető ügyvédi támogatás vagy egyéb jogsegély nélkül, másrészt mert az EU tagországok jogalkotása és jogalkalmazása eltérhet és el is tér az ECHR-ben lefektetett elvektől, s erre gyakran nincs megfelelő jogorvoslat.
Akkor mégis mit tegyünk?
Ezen a ponton világossá vált, hogy sem technológiailag, sem jogilag nincs egyértelmű, garantált védelem az elnyomó intézkedések ellen. Matilda a szolidaritás mellett érvelt: minél többen megyünk ki, annál inkább csökken az egyes személyekre vonatkozó veszély, hisz annál kínosabb politikailag fellépni a tömeg ellen. Főleg fontos és jó ebben a tekintetben a politikusok résztvétele, hisz az államfők, valamint az Európa Parlamenti képviselők, akik egy EU-biztossal egyetemben részt szándékoznak venni a budapesti felvonuláson, immunitást élveznek, tehát nem kockáztatnak semmit. Kérdésemre Matilda azt is javasolta, hogy ha esetleg olyan cégnél dolgozunk, ahol az egyenlőségre hangsúlyt fektetnek, a céges részvétel vagy a cég támogatása is sokat segíthet, hisz az egyének könnyebben támadhatók, mint egy cég.
Angelina pedig azt hangsúlyozta, hogy fontos átgondolni, hogy milyen adatokat, főleg milyen képeket, teszünk elérhetővé magunkról az interneten. A Facebook, Whatsapp és egyéb közösségi médiák nem megbízható gazdái adatainknak: rendszeresen megosztják vagy akár el is adják ezeket, ezzel is megkönnyítve az arcfelismerő technológia dolgát. Angelina ezek helyett a kommunikációra a Signal nevű open-source alkalmazást ajánlotta, amely ugyanúgy működik, mint a fent említettek, csak mivel open-source, azaz nyílt és kiismerhető a szoftvere, ezért bizonyíthatóan zártan kezeli az adatainkat, nem osztja meg a fotóinkat más alkalmazással vagy céggel. Azon is érdemes elgondolkodni, hogy magunk mennyire készítünk fényképeket egy ilyen eseményen, hisz azzal is bizonyítékokat készíthetünk saját magunkról vagy a barátainkról.
Ha ezeket a véleményeket összehasonlítjuk a TASZ ajánlásával és jogi ismertetőjével, az a reményem, hogy nyugodtabb szívvel tudunk részt venni a Pride-on, hisz az elnyomást valóban csak az ellenállással, a tömeges véleménynyilvánítással tudjuk megrengetni.
Az esemény megszervezésért pedig külön köszönet éri az AI Policy Labet, valamint a Lab kollégáit, főleg szervezőtársamat, Pettert!