Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

„Nem a ChatGPT-re szavaztunk!” - kereszttűzben a svéd miniszterelnök, amiért MI-t használ

Ulf Kristersson svéd miniszterelnök
Ulf Kristersson svéd miniszterelnök Szerzői jogok  Copyright 2025 The Associated Press. All rights reserved
Szerzői jogok Copyright 2025 The Associated Press. All rights reserved
Írta: Ferenc SzéF
Közzétéve:
A cikk megosztása Kommentek
A cikk megosztása Close Button

Technológiai szakértők bírálják Ulf Kristerssont, miután egy újság azzal vádolja, hogy beleszeretett az „oligarchák mesterséges intelligencia-pszichózisába”.

HIRDETÉS

„Második véleményként” használja a svéd miniszterelnök a ChatGPT MI-alkalmazást, amiért azonnal kritikák zúdultak rá, hogy lustaságból a mesterséges intelligenciára bízza a kormányzást.

Kristersson, akinek a Mérsékelt Pártja vezeti a svéd jobbközép koalíciós kormányt, azt mondta, hogy olyan eszközöket használ, mint a ChatGPT és a francia LeChat szolgáltatás. Kollégái is alkalmazzák a mesterséges intelligenciát mindennapi munkájuk során, tette hozzá.

A kormányfő a svéd Dagens industri svéd üzleti lapnak "szólta el magát" azzal, hogy „én magam is elég gyakran használom (az MI-t). Ha másért nem, akkor egy második véleményért. Mit tettek mások? És nekünk pont az ellenkezőjét kellene gondolnunk?”

A technológiai szakértők azonban ellenérzéseikkel jöttek elő, ha a politikusok ilyen módon használnak mesterséges intelligencia eszközöket. Az Aftonbladet újság vezércikkben azzal vádolta Kristerssont, hogy „bedőlt a tech-oligarchák MI-pszichózisának”.

„Nagyon óvatosnak kell lenni” – mondja Simone Fischer-Hübner, a Karlstadi Egyetem számítástechnikai kutatója az Aftonbladetnek, óva intve attól, hogy a ChatGPT-re érzékeny információkat bízzanak.

Kristersson szóvivője később azt nyilatkozta, hogy a miniszterelnök nem vállalt kockázatot a mesterséges intelligencia használatakor. „Természetesen nem biztonsági szempontból érzékeny információk kerülnek oda, hanem csak tájékoztató jellegűnek használják” – mondta.

Virginia Dignum, az Umeå Egyetem felelős mesterséges intelligencia professzora azonban azt mondta, hogy a mesterséges intelligencia nem képes érdemi véleményt nyilvánítani a politikai eszmékről, és egyszerűen csak azoknak a nézeteit tükrözi, akik létrehozták.

Ulf Kristersson a júniusi Európa-értekezleten
Ulf Kristersson a júniusi Európa-értekezleten Copyright 2025 The Associated Press. All rights reserved

Mások viszont egyáltalán nem értenek ezzel egyet, mert a MI nem politikai véleményt vagy döntést közöl, hanem kizárólag adatokat elemez és azok lehetséges következményeit, hatásait mutatja be, illetve figyelmeztet egy az adatok téves értelmezésére. Erre hivatkozik a svéd miniszterelnök is, amit támogat több újság is. A Dagens Nyheter szerkesztősége üdvözölve, hogy egy politikus aktívan használja az új technológiát, mert ez segítheti a jövőbeni szabályozás alaposabb megértését és pontosságát.

Igaz - nem igaz?

Az MI chatbotok az alábbi módokon segíthetnek:

  • második vélemény megírása: a hasonló döntési helyzetek gyakorlatainak vagy egy ellentétes nézőpont felvetése, hogy a döntéshozó ne csak saját gondolataira építsen,
  • gyors információgyűjtés: adatok, történelmi analógiák vagy szakértői vélemények összegzése, segítve a tájékozódást,
  • döntés-előkészítés rohamtempóban: sokszor nincs idő hosszadalmas utána olvasásra, míg az MI gyors tájékoztatást ad,
  • kérdések kritikai vizsgálata: például „miért gondolunk vagy nem gondolunk ennek az ellenkezőjére?”, ami segíthet az előítélet, előre meghozott döntés (pre-bias) elkerülésében.

Ugyanakkor kétségtelen korlátai is vannak az iyen a gyakorlatnak, mint például az, hogy az MI a múlt adatai alapján generál válaszokat, és nem ad újszerű gondolatokat.

Biztonsági és adatvédelmi kockázat is létezik, így potenciálisan érzékeny adatok kiszivárgása, illetve AI szolgáltatók által meghatározott szűrések befolyásolása.

Fennáll a felelősség elmosódásának kérdése is, mert ha az MI a döntéshez hozzájárult, akkor később nehéz világosan meghatározni, kié a politikai felelősség.

Végül fennáll a 'túlbizalom' veszélye (slippery slope), ami azt jelenti, hogy ha egyszer vagy többször már bevált a mesterséges segítség, akkor könnyen függést alakíthat ki a felhasználó oldalán, és túl sok esetben támaszkodnak rá – figyelmeztetnek a szakértők 

Nem csak svéd politikai példák vannak

Mark Sewards brit parlamenti képviselő létrehozott egy MI-klónt magáról („AI Mark” néven), hogy válaszoljon a választó megkereséseire és panaszaira. Célja a hozzáférhetőség növelése volt, de kritikák szerint ezzel “lusta”, felelőtlen gyakorlatot teremtett, és hozzáállása akadályozhatja a közvetlen politikai felelősséget 

Kanadában egy „Canadian Civic Advisor” nevű chabotot használtak automatizáltan a döntéshozókkal való kommunikációra, különösen a klímavédelmi programok leépítése érdekében. Ez jól mutatja, hogyan használható az MI negatív célokra is – a döntéshozók befolyásolására és dezinformáció terjesztésére. 

Összességében tehát az eszköz hatékony kiegészítő lehet, de soha nem helyettesítheti a humán döntéshozók végső elhatározását. Ám az erről szóló mélyebb viták még csak most kezdődnek.

Ugrás az akadálymentességi billentyűparancsokhoz
A cikk megosztása Kommentek

kapcsolódó cikkek

A német kormány sürgeti a mesterséges intelligencia felügyeletének megkezdését

Mesterséges intelligenciával támogatott robotnő készített portrét a brit uralkodóról

Mit szólna Szókratész és Platón a mesterséges intelligenciához? Görögország korábbi kormányfője válaszol