Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Margrethe Vestager támogatja a gyerekek új MI-biztonsági intézetét tíz év Big Tech-szabályozás után

Archív felvétel: Margrethe Vestager, az Európai Bizottság ügyvezető alelnöke a sajtóhoz szól.
Archív felvétel: Margrethe Vestager, az Európai Bizottság ügyvezető alelnöke a sajtónak nyilatkozik Szerzői jogok  File- AP Photo/Michael Sohn, pool
Szerzői jogok File- AP Photo/Michael Sohn, pool
Írta: Una Hajdari
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Amerikai nonprofit az autóipar biztonsági modelljét veszi át, hogy megvédje a gyerekeket az MI-től, és ehhez többek között a techóriások pénzét használná.

Kedden fogjákhivatalosan bemutatni a dán parlamentben azt az új, független intézetet, amelynek célja, hogy biztonságosabbá tegye a mesterséges intelligenciát a gyerekek számára; az esemény társházigazdái között lesz Margrethe Vestager volt európai bizottsági ügyvezető alelnök is.

HIRDETÉS
HIRDETÉS

Az intézet megközelítése – ahogy a indulás előtt kiadott közleményben fogalmaznak – az autók független törésteszt-értékeléseit veszi mintának.

A koncepció lényege, hogy miként a vásárlók ma már ellenőrizhetik, mennyire biztonságos egy autó, mielőtt megveszik, úgy a szülők is megtehessék ugyanezt a gyerekeik által használt MI-alkalmazásokkal.

Arról viszont az intézet egyelőre nem árul el részleteket, hogyan is nézne ki egy törésteszt egy csevegőrobot esetében.

Az is nyitott kérdés, hogy a folyamatosan frissülő, környezettől függően másként viselkedő MI-termékek, amelyek nehezen vethetők alá a tesztpályákra jellemző, szabványos körülményeknek, egyáltalán értelmezhető módon „töréstesztelhetők-e” a gyerekek szempontjából – ezt mind az intézetnek kell még megválaszolnia.

Vestager, aki tíz éven át felügyelte az Európai Bizottságnál a versenypolitikát, és vezette az EU „Digitális korszakra felkészült Európa” programját, a kezdeményezés egyik legnagyobb politikai súlyú támogatója.

Vissza lehet dugni a szellemet a palackba?

Kutatók, gyermekvédelmi szervezetek és egyes politikusok már évek óta kongatják a vészharangot.

Az MI-alapú csevegőrobotok mindeddig szabályozási szürke zónában mozogtak az EU digitális szolgáltatásokról szóló rendelete (DSA) és a brit Online Safety Act alatt, és bár az Európai Bizottság 2025 júliusában iránymutatást adott ki a kiskorúak online védelméről, az csak ajánlás, nem kötelező erejű.

„A mesterséges intelligencia alapjaiban alakítja át a gyerekkort és a serdülőkort, miközben a gyerekek jövőjét érintő sorsdöntő döntéseket hozzuk meg anélkül a bizonyítékbázis nélkül, amelyre szükségünk lenne ahhoz, hogy biztosak lehessünk: mindez biztonságos, és a javukat szolgálja” – fogalmazott a közleményben James P. Steyer, a Common Sense Media alapítója és vezérigazgatója.

„Soha nem volt még ennyire sürgős az átlátható MI-biztonsági szabványok és a független tesztelés iránti igény.”

A Stanford Medicine Brainstorm Labjával közösen készített, 2025 novemberében publikált kockázati értékelésében a Common Sense Media arra jutott, hogy a vezető MI-chatbotok – köztük a ChatGPT, a Claude, a Gemini és a Meta AI – a kifejezett öngyilkossági és önsértő tartalmak kezelésében elért friss javulás ellenére következetesen kudarcot vallanak a fiatalokat érintő mentális egészségi problémák felismerésében és a megfelelő reakciók megfogalmazásában.

A kutatók olyan, általuk „elszalasztott morzsáknak” nevezett jeleket figyeltek meg: egyértelmű lelki krízisre utaló szignálokat, amelyeket a chatbotok nem érzékeltek, miközben a modellek inkább testi problémákkal magyarázták a tüneteket, ahelyett hogy mentális zavarokra következtettek volna.

Egy, kifejezetten a ChatGPT-re fókuszáló külön értékelés azt állapította meg, hogy az öngyilkosságra vagy önsértésre utaló tartalmakról szóló riasztások gyakran csak több mint 24 órával az érintett beszélgetés után érkeztek meg – egy valós válsághelyzetben ez már túl késő lenne, jegyzi meg a jelentés.

A nagy technológiai cégek pénzéből

Az intézet a Common Sense Media ernyője alatt működik majd, finanszírozását jótékonysági adományozók és iparági szereplők vegyesen biztosítják, köztük az Anthropic, az OpenAI Foundation és a Pinterest – vagyis éppen azok a cégek, amelyek termékeit számon kérni készül.

Az intézet állítása szerint teljes szerkesztői függetlenséget élvez a megállapításai felett, összeférhetetlenségi szabályai pedig kizárják, hogy a finanszírozók jelenlegi alkalmazottai vagy velük kapcsolatban álló személyek helyet kapjanak a tanácsadó testületben.

A modell része az is, hogy a kifejlesztett és letesztelt eszközöket visszaadják az iparágnak: az intézet nyílt forráskódú értékelési módszereket kíván kidolgozni, amelyeket a MI-fejlesztők saját modelljeiken futtathatnak.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Anthropic: a „gonosz MI”-történetek felelősek Claude zsarolási kísérleteiért

Európai fiatal aktivisták küzdenek az általános közösségimédia-tilalmak ellen

Margrethe Vestager támogatja a gyerekek új MI-biztonsági intézetét tíz év Big Tech-szabályozás után