Amerikai nonprofit az autóipar biztonsági modelljét veszi át, hogy megvédje a gyerekeket az MI-től, és ehhez többek között a techóriások pénzét használná.
Kedden fogjákhivatalosan bemutatni a dán parlamentben azt az új, független intézetet, amelynek célja, hogy biztonságosabbá tegye a mesterséges intelligenciát a gyerekek számára; az esemény társházigazdái között lesz Margrethe Vestager volt európai bizottsági ügyvezető alelnök is.
Az intézet megközelítése – ahogy a indulás előtt kiadott közleményben fogalmaznak – az autók független törésteszt-értékeléseit veszi mintának.
A koncepció lényege, hogy miként a vásárlók ma már ellenőrizhetik, mennyire biztonságos egy autó, mielőtt megveszik, úgy a szülők is megtehessék ugyanezt a gyerekeik által használt MI-alkalmazásokkal.
Arról viszont az intézet egyelőre nem árul el részleteket, hogyan is nézne ki egy törésteszt egy csevegőrobot esetében.
Az is nyitott kérdés, hogy a folyamatosan frissülő, környezettől függően másként viselkedő MI-termékek, amelyek nehezen vethetők alá a tesztpályákra jellemző, szabványos körülményeknek, egyáltalán értelmezhető módon „töréstesztelhetők-e” a gyerekek szempontjából – ezt mind az intézetnek kell még megválaszolnia.
Vestager, aki tíz éven át felügyelte az Európai Bizottságnál a versenypolitikát, és vezette az EU „Digitális korszakra felkészült Európa” programját, a kezdeményezés egyik legnagyobb politikai súlyú támogatója.
Vissza lehet dugni a szellemet a palackba?
Kutatók, gyermekvédelmi szervezetek és egyes politikusok már évek óta kongatják a vészharangot.
Az MI-alapú csevegőrobotok mindeddig szabályozási szürke zónában mozogtak az EU digitális szolgáltatásokról szóló rendelete (DSA) és a brit Online Safety Act alatt, és bár az Európai Bizottság 2025 júliusában iránymutatást adott ki a kiskorúak online védelméről, az csak ajánlás, nem kötelező erejű.
„A mesterséges intelligencia alapjaiban alakítja át a gyerekkort és a serdülőkort, miközben a gyerekek jövőjét érintő sorsdöntő döntéseket hozzuk meg anélkül a bizonyítékbázis nélkül, amelyre szükségünk lenne ahhoz, hogy biztosak lehessünk: mindez biztonságos, és a javukat szolgálja” – fogalmazott a közleményben James P. Steyer, a Common Sense Media alapítója és vezérigazgatója.
„Soha nem volt még ennyire sürgős az átlátható MI-biztonsági szabványok és a független tesztelés iránti igény.”
A Stanford Medicine Brainstorm Labjával közösen készített, 2025 novemberében publikált kockázati értékelésében a Common Sense Media arra jutott, hogy a vezető MI-chatbotok – köztük a ChatGPT, a Claude, a Gemini és a Meta AI – a kifejezett öngyilkossági és önsértő tartalmak kezelésében elért friss javulás ellenére következetesen kudarcot vallanak a fiatalokat érintő mentális egészségi problémák felismerésében és a megfelelő reakciók megfogalmazásában.
A kutatók olyan, általuk „elszalasztott morzsáknak” nevezett jeleket figyeltek meg: egyértelmű lelki krízisre utaló szignálokat, amelyeket a chatbotok nem érzékeltek, miközben a modellek inkább testi problémákkal magyarázták a tüneteket, ahelyett hogy mentális zavarokra következtettek volna.
Egy, kifejezetten a ChatGPT-re fókuszáló külön értékelés azt állapította meg, hogy az öngyilkosságra vagy önsértésre utaló tartalmakról szóló riasztások gyakran csak több mint 24 órával az érintett beszélgetés után érkeztek meg – egy valós válsághelyzetben ez már túl késő lenne, jegyzi meg a jelentés.
A nagy technológiai cégek pénzéből
Az intézet a Common Sense Media ernyője alatt működik majd, finanszírozását jótékonysági adományozók és iparági szereplők vegyesen biztosítják, köztük az Anthropic, az OpenAI Foundation és a Pinterest – vagyis éppen azok a cégek, amelyek termékeit számon kérni készül.
Az intézet állítása szerint teljes szerkesztői függetlenséget élvez a megállapításai felett, összeférhetetlenségi szabályai pedig kizárják, hogy a finanszírozók jelenlegi alkalmazottai vagy velük kapcsolatban álló személyek helyet kapjanak a tanácsadó testületben.
A modell része az is, hogy a kifejlesztett és letesztelt eszközöket visszaadják az iparágnak: az intézet nyílt forráskódú értékelési módszereket kíván kidolgozni, amelyeket a MI-fejlesztők saját modelljeiken futtathatnak.