Technológiai szakértők bírálják Ulf Kristerssont, miután egy újság azzal vádolja, hogy beleszeretett az „oligarchák mesterséges intelligencia-pszichózisába”.
„Második véleményként” használja a svéd miniszterelnök a ChatGPT MI-alkalmazást, amiért azonnal kritikák zúdultak rá, hogy lustaságból a mesterséges intelligenciára bízza a kormányzást.
Kristersson, akinek a Mérsékelt Pártja vezeti a svéd jobbközép koalíciós kormányt, azt mondta, hogy olyan eszközöket használ, mint a ChatGPT és a francia LeChat szolgáltatás. Kollégái is alkalmazzák a mesterséges intelligenciát mindennapi munkájuk során, tette hozzá.
A kormányfő a svéd Dagens industri svéd üzleti lapnak "szólta el magát" azzal, hogy „én magam is elég gyakran használom (az MI-t). Ha másért nem, akkor egy második véleményért. Mit tettek mások? És nekünk pont az ellenkezőjét kellene gondolnunk?”
A technológiai szakértők azonban ellenérzéseikkel jöttek elő, ha a politikusok ilyen módon használnak mesterséges intelligencia eszközöket. Az Aftonbladet újság vezércikkben azzal vádolta Kristerssont, hogy „bedőlt a tech-oligarchák MI-pszichózisának”.
„Nagyon óvatosnak kell lenni” – mondja Simone Fischer-Hübner, a Karlstadi Egyetem számítástechnikai kutatója az Aftonbladetnek, óva intve attól, hogy a ChatGPT-re érzékeny információkat bízzanak.
Kristersson szóvivője később azt nyilatkozta, hogy a miniszterelnök nem vállalt kockázatot a mesterséges intelligencia használatakor. „Természetesen nem biztonsági szempontból érzékeny információk kerülnek oda, hanem csak tájékoztató jellegűnek használják” – mondta.
Virginia Dignum, az Umeå Egyetem felelős mesterséges intelligencia professzora azonban azt mondta, hogy a mesterséges intelligencia nem képes érdemi véleményt nyilvánítani a politikai eszmékről, és egyszerűen csak azoknak a nézeteit tükrözi, akik létrehozták.
Mások viszont egyáltalán nem értenek ezzel egyet, mert a MI nem politikai véleményt vagy döntést közöl, hanem kizárólag adatokat elemez és azok lehetséges következményeit, hatásait mutatja be, illetve figyelmeztet egy az adatok téves értelmezésére. Erre hivatkozik a svéd miniszterelnök is, amit támogat több újság is. A Dagens Nyheter szerkesztősége üdvözölve, hogy egy politikus aktívan használja az új technológiát, mert ez segítheti a jövőbeni szabályozás alaposabb megértését és pontosságát.
Igaz - nem igaz?
Az MI chatbotok az alábbi módokon segíthetnek:
- második vélemény megírása: a hasonló döntési helyzetek gyakorlatainak vagy egy ellentétes nézőpont felvetése, hogy a döntéshozó ne csak saját gondolataira építsen,
- gyors információgyűjtés: adatok, történelmi analógiák vagy szakértői vélemények összegzése, segítve a tájékozódást,
- döntés-előkészítés rohamtempóban: sokszor nincs idő hosszadalmas utána olvasásra, míg az MI gyors tájékoztatást ad,
- kérdések kritikai vizsgálata: például „miért gondolunk vagy nem gondolunk ennek az ellenkezőjére?”, ami segíthet az előítélet, előre meghozott döntés (pre-bias) elkerülésében.
Ugyanakkor kétségtelen korlátai is vannak az iyen a gyakorlatnak, mint például az, hogy az MI a múlt adatai alapján generál válaszokat, és nem ad újszerű gondolatokat.
Biztonsági és adatvédelmi kockázat is létezik, így potenciálisan érzékeny adatok kiszivárgása, illetve AI szolgáltatók által meghatározott szűrések befolyásolása.
Fennáll a felelősség elmosódásának kérdése is, mert ha az MI a döntéshez hozzájárult, akkor később nehéz világosan meghatározni, kié a politikai felelősség.
Végül fennáll a 'túlbizalom' veszélye (slippery slope), ami azt jelenti, hogy ha egyszer vagy többször már bevált a mesterséges segítség, akkor könnyen függést alakíthat ki a felhasználó oldalán, és túl sok esetben támaszkodnak rá – figyelmeztetnek a szakértők
Nem csak svéd politikai példák vannak
Mark Sewards brit parlamenti képviselő létrehozott egy MI-klónt magáról („AI Mark” néven), hogy válaszoljon a választó megkereséseire és panaszaira. Célja a hozzáférhetőség növelése volt, de kritikák szerint ezzel “lusta”, felelőtlen gyakorlatot teremtett, és hozzáállása akadályozhatja a közvetlen politikai felelősséget
Kanadában egy „Canadian Civic Advisor” nevű chabotot használtak automatizáltan a döntéshozókkal való kommunikációra, különösen a klímavédelmi programok leépítése érdekében. Ez jól mutatja, hogyan használható az MI negatív célokra is – a döntéshozók befolyásolására és dezinformáció terjesztésére.
Összességében tehát az eszköz hatékony kiegészítő lehet, de soha nem helyettesítheti a humán döntéshozók végső elhatározását. Ám az erről szóló mélyebb viták még csak most kezdődnek.