Ez a tartalom nem elérhető az ön régiójában

Arcfelismerés és az előítéletek elkerülése: öt kérdés az EU mesterséges intelligencia-terveiről

Access to the comments Kommentek
Írta: Arató László
Arcfelismerés és az előítéletek elkerülése: öt kérdés az EU mesterséges intelligencia-terveiről
Szerzői jogok  Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.

Filmajánlók beszerzése kedvenc videómegosztó platformon, telefon blokkolásának feloldása az arcfelismerés segítésével, automatikus javítás használata vagy chatbottal való csevegés. Ezek mindennapos példák a mesterséges intelligencia (AI) használatára. Futurisztikus hangzása ellenére a mesterséges intelligencia mégis olyasmi, amelyet az európai polgárok használnak és napi szinten kommunikálnak vele. A lehetőségek végtelenek lehetnek, de kockázatok is felmerülnek.

"A mesterséges intelligencia jótékony felhasználásának lehetősége óriási, kevesebb környezetszennyezés, jobb orvosi ellátás és oktatás, többféle lehetőség a polgárok számára, hogy bekapcsolódjanak a társadalmunkba" – szögezte le az Európai Bizottság ügyvezető alelnöke, Margrethe Vestager, aki a digitális korszakra való felkészülésért is felelős.

A lehetőségek az élet bármely területére kiterjeszthetők. „A terrorizmus és a bűnözés elleni küzdelemben, valamint a kiberbiztonság fokozása érdekében is használhatjuk” – erősítette meg Vestager az Európai Parlament Mesterséges Intelligenciával foglalkozó különbizottsága előtti vitában. De kezdenek megjelenni a kockázatok is. Ez az egyik oka annak, hogy az Európai Bizottság volt az első testület a világon, amely javaslatot tett a mesterséges intelligencia szabályozására.

A mesterséges intelligencia egy olyan technológia, amely lehetővé teszi a gépek számára, hogy észleljék, elemezzék a környezetet és tanuljanak tőle. Mindezen információknak köszönhetően képesek előre jelezni és meghozni saját döntéseiket konkrét célok elérése érdekében. Az AI-nak számos alkalmazása létezik, orvosi célokra például az Alzheimer-kór kockázatának azonosítására használható, a mezőgazdaság számára is van fejlesztés vagy az alkalmazottakat is nyomon lehet követni távmunka közben.

Mivel a mesterséges intelligencia óriási mennyiségű adatot gyűjt össze, és olyan információkat használ fel, amelyek megismétlik a társadalom előítéleteit, számos kockázattal is jár a használata. Például veszélyeztetheti a magánéletet, az alapvető jogokat vagy növelheti a kisebbségekkel szembeni diszkriminációt.

Mi az EU jelenlegi álláspontja a mesterséges intelligenciával kapcsolatban?

"Minél nagyobb kockázatot jelenthet életünkre egy adott mesterséges intelligencia, annál szigorúbb a szabály" - ezekkel a szavakkal határozta meg Vestager tavaly áprilisban az Európai Bizottság mesterséges intelligenciára vonatkozó javaslatának alapjait. A szöveg a különböző mesterséges intelligencia-típusokat négy kategóriába sorolja az állampolgárok számára jelentett kockázat alapján.

Minimális kockázatúnak minősülnek azok a technológiák, amelyek minimális vagy semmilyen kockázatot nem jelentenek az állampolgárok számára, ezért szabadon használhatóak lesznek, és az új szabályok nem vonatkoznak rájuk. Ilyenek például a spamszűrők.

A korlátozott kockázati kategóriával szemben átláthatósági követelmények lesznek. Tudatniuk kell a polgárokkal, hogy egy géppel kommunikálnak, és ezáltal lehetővé teszik számukra, hogy megalapozott döntéseket hozzanak. Ilyenek például a chatbotok.

A magas kockázat alá eshet a mesterséges intelligencia használata például az arcfelismerés, a jogi eljárások és az önéletrajzok úgynevezett válogató alkalmazásai esetén. Ez ellentmondásos, mivel potenciálisan káros lehet, vagy káros következményekkel járhat a felhasználók számára. Ezért a Bizottság arra számít, hogy ezeket a rendszereket „a piacra kerülésük előtt és teljes életciklusuk során gondosan értékelni fogják”.

Az utolsó kategória elfogadhatatlan. Ez az, ahol az Európai Bizottság meghúzta a határt, és kihagyja az összes olyan mesterséges intelligencia-rendszert, amely „egyértelmű veszélyt jelent az emberek biztonságára, megélhetésére és jogaira nézve”. Példa lehet erre a kormányok társadalmi pontozása vagy a tudatalatti technikák alkalmazása.

Sarah Chander, az Európai Digitális Jogok (EDRi) vezető politikai tanácsadója szerint azonban az Európai Bizottság javaslata „kockáztatja, hogy valóban invazív megfigyelési és diszkriminatív mesterséges intelligenciarendszereket tesz lehetővé, amelyeket ehelyett egyenesen be kellene tiltani”. Az általa említett példák közé tartozik a drónok határokon történő telepítésére szolgáló technológiák vagy a társadalombiztosítási juttatások értékelésére szolgáló alkalmazások.

Közben a közelmúltban az Európai Parlament nem kötelező erejű jelentésben szavazott a tömeges megfigyeléssel szemben. "Egyértelműen ellenezzük a mesterséges intelligencia használatán alapuló prediktív rendészeti tevékenységet, valamint a biometrikus adatok bármilyen feldolgozását, amely tömeges megfigyeléshez vezet" - mondta Petar Vitanov, a szövegért felelős európai parlamenti képviselő.

Valósággá válik az arcfelismerés az Európai Unióban?

A biztonsági célú arcfelismerés az egyik legforróbb probléma a mesterséges intelligencia szabályozása terén. Az Európai Parlamentben a Zöldek megbízásából készült friss tanulmány azt mutatja, hogy a 27 tagállamból 11 már használja a mesterséges intelligenciát. Ilyen például Németország, Franciaország, Magyarország, Hollandia vagy Finnország.

A Bizottság számára ez magas kockázatú felhasználás. Az Európai Parlamentben azonban megoszlanak a vélemények. Míg egyesek teljes tiltást kérnek, mások másképpen kezelnék a kérdést. "Moratóriumot követelünk az arcfelismerő rendszerek bűnüldözési célú bevetésére, mivel a technológia hatástalannak bizonyult, és gyakran diszkriminatív eredményekhez vezet" - mondta Vitanov október közepén. A keddi sajtótájékoztatón azonban Axel Voss európai parlamenti képviselő, egy másik mesterséges intelligenciával kapcsolatos jelentés előadója kijelentette, hogy "még az arcfelismeréshez is be lehet állítani biztosítékokat annak érdekében, hogy használható legyen, de ne éljenek vissza vele".

Az arcfelismerés nem marad ki a jogszabályból. Chander arra figyelmeztet, hogy a szabályozással kapcoslatos vitáknak köszönhetően előfordulhat, hogy nem európai, hanem nemzeti szintű lesz az ezt rendező jogszabály. Miközben úgy gondolja, hogy az innovációs minisztériumok "nagyon pozitívan" állnak a "több emberi jogi szabályozás szükségességéhez", de a belügyminisztériumok álláspontja már nem ugyanez. Ők általában a rendőrségért felelősek, ezért "hajlamosak szkeptikusabbak lenni az arcfelismerés és a prediktív rendészet tilalmával szemben".

Elkerülhető-e az elfogultságok újratermelődésének kockázata?

Javaslatával az Európai Bizottság célja, hogy az AI-rendszerek "ne hozzanak létre vagy reprodukáljanak torzítást". Így a magas kockázatú AI-rendszerekkel szemben támasztott követelményeknek „robusztusnak” kell lenniük ahhoz, hogy megfeleljenek az igényeknek. Chander azonban ragaszkodik ahhoz, hogy sok mesterséges intelligencia-rendszer „természetesen növelni fogja a diszkriminációt működésének természetéből adódóan”. Mint mondta, „a múltból származó adatokat és információkat használ fel, és ezeket megpróbálja alkalmazni a jövőre”. Ez újratermelheti a társadalomban már meglévő előítéleteket és megkülönböztetést. Az esetlegesen okozott károkkal kapcsolatban Chander szerint a Bizottság figyelmen kívül hagyott egy kulcsproblémát: a polgárok panasztételi lehetősége hiányzik. Azt kéri, hogy a potenciálisan érintett állampolgárok egy hatósághoz fordulhassanak jogaik tiszteletben tartása érdekében.

És mi a helyzet a túl- vagy alulszabályozással?

A világszintű szabályozás megteremtésének vágyától a túlszabályozás kockázatáig terjednek azok a tényezők, amelyek megszakítják a technológia előrehaladásának lehetőségét. Az Európai Unió nagy kihívással néz szembe a mesterséges intelligencia szabályozásával. Brüsszel elvárja, hogy globális mércét állítson fel, ahogyan a GDPR esetében is történt. Vestager számára problémák adódhatnak, ha az EU nem tudja mindezt biztonságossá tenni. "Aggodalomra ad okot, ha megkockáztatjuk, hogy a technológiát nem fejlesztik és használják olyan széles körben, amennyire csak lehetne, ha nem vagyunk jók a vele kapcsolatos kockázatok mérséklésében." Ugyanakkor az EU-nak meg kell találnia az egyensúlyt a mesterséges intelligencia kínai állami használata és az Egyesült Államok megközelítése között - a nagy technológiai vállalatokkal közösen kidolgozott önkéntes iránymutatásokkal.