OpenAI küldetése majdnem egy évtized után: mi változik, mit tartalmaz az új alapelvek dokumentuma
Az OpenAI-t ma már kevésbé foglalkoztatja a mesterséges általános intelligencia (AGI), mint csaknem egy évtizede, és ehelyett technológiájának minél szélesebb körű bevezetését helyezi előtérbe a cég új küldetésnyilatkozata szerint.
Vasárnap az OpenAI frissítést tett közzé az "Our Principles" című dokumentumához, amely azt rögzíti, hogyan kívánja a jövőben működtetni technológiáját.
Az új alapelvek és a cég közel tíz évvel ezelőtti prioritásai között több lényeges különbség is van, abból az időszakból, amikor az OpenAI még induló, nonprofit mesterségesintelligencia-kutató szervezet volt.
A mesterséges általános intelligencia háttérbe szorítása
2018-ban (forrás: angol) az OpenAI rendíthetetlenül a mesterséges általános szuperintelligenciára (AGI) összpontosított, vagyis arra az elképzelésre, hogy technológiája felülmúlja az emberi intelligenciát, mára azonban ez csupán a vállalat mesterségesintelligencia-technológiája szélesebb körű bevezetésének egyik eleme.
Mindkét változat szerint az OpenAI küldetése annak biztosítása, hogy ez a technológia „az egész emberiség javát szolgálja”, a 2018-as verzió azonban kifejezetten hangsúlyozza, hogy azt biztonságosan és a közjót szem előtt tartva kell megalkotni.
„Elsődleges bizalmi kötelezettségünk az emberiséggel szemben áll fenn” – olvasható a dokumentumban. „Arra számítunk, hogy küldetésünk teljesítéséhez jelentős erőforrásokat kell mozgósítanunk, de mindig gondosan fogunk eljárni, hogy a munkavállalóink és az érintettek között kialakuló érdekütközéseket a lehető legkisebbre csökkentsük, amelyek veszélyeztethetnék a széles körű társadalmi hasznot.”
A 2026-os változat (forrás: angol) ugyanakkor azt hangsúlyozza, hogy továbbra is biztonságos rendszereket kell építeni, a társadalomnak pedig meg kell küzdenie „az MI-képességek egymást követő szintjeivel, meg kell értenie azokat, integrálnia kell őket, és közösen kell megtalálnia a továbblépés legjobb útját”.
Sam Altman vezérigazgató és társalapító szerint 2026-ban az előrelépés útja az, ha minden szinten demokratizálják az MI-t: mindenkinek hozzáférést adnak, és ellenállnak annak a gondolatnak, hogy a technológia „néhány szereplő kezébe összpontosítsa a hatalmat”.
A 2026-os alapelvek dokumentuma azt is rögzíti, hogy az OpenAI-nak kormányokkal, nemzetközi szervezetekkel és más AGI-kezdeményezésekkel együttműködve kell „kellőképpen megoldania a súlyos összehangolási, biztonsági vagy társadalmi problémákat”, mielőtt tovább haladna a munkájával.
Ennek példái lehetnek, hogy a ChatGPT-t olyan modellekkel szembeni védekezésre használják, amelyek új kórokozókat hozhatnak létre, vagy hogy kiberreziliens modelleket építenek be a kritikus infrastruktúrába.
Altman a hónap elején személyes blogján is utalt arra, mi áll az OpenAI AGI-ra helyezett hangsúlyának csökkentése mögött.
Az AGI-nek van egyfajta „hatalomgyűrű-jellege”, amely „őrültségekre készteti az embereket” – írta Altman. Szerinte ennek ellensúlyozására az egyetlen megoldás, ha „arra törekszünk, hogy a technológiát széles körben megosszuk az emberekkel, és senkinek se legyen birtokában a gyűrű”.
Az OpenAI többé nem lép hátra egy biztonságosabb termék kedvéért
2018-ban az OpenAI azt írta, attól tart, hogy az AGI fejlesztése „versenyfutássá vált, amelyben nincs idő a megfelelő biztonsági óvintézkedésekre”.
Vállalta azt is, hogy saját modelljeinek fejlesztését leállítja, ha segíthet egy olyan projekten, amely „értékrendjében összhangban van vele, és a biztonságot előtérbe helyező kezdeményezés”, és közelebb áll az AGI megvalósításához.
„A részleteket később dolgozzuk ki… de egy tipikus aktiváló feltétel lehet például az, ha az elkövetkező két évben az átlagosnál nagyobb esély mutatkozik a sikerre” – áll a 2018-as dokumentumban.
2026-ban már nincs szó arról, hogy félreállnának egy „nagyobb ügy” érdekében. A dokumentum ehelyett azt ismeri el, hogy az OpenAI „jóval nagyobb erő a világban, mint néhány évvel ezelőtt”, és átláthatóságot ígér arra nézve, mikor és hogyan változhatnak működési elveik.
A vállalat komoly versenyben áll több riválissal, köztük az Anthropic-kal is.
Februárban az Anthropic megtagadta, hogy Donald Trump amerikai elnök kormányának korlátlan hozzáférést biztosítson katonai célú MI-rendszereihez, ami miatt a céget ellátási lánckockázatnak minősítették, és elrendelték, hogy a szövetségi szervek márciusban hagyják abba az Anthropic MI-alapú asszisztensének, Claude-nak a használatát.
Február 28-án az OpenAI lépett a helyére, és megállapodást kötött a Hadügyminisztériummal, ami arra késztette egyes felhasználókat, hogy bojkottálják a ChatGPT-t, és inkább a Claude-ot válasszák.
Az Anthropicot ebben a hónapban 800 milliárd dollárra (696 milliárd euróra) értékelték, ami nagyjából megegyezik az OpenAI értékével.
Homályos, társadalmi szintű felhívások
A 2026-os dokumentumban az OpenAI több társadalmi szintű változást sürget, hogy a világ jobban alkalmazkodni tudjon az MI-hez.
„Olyan világot képzelünk el, ahol a jólét olyan mértékben terjed el, amelyet ma még nehéz elképzelni” – áll a dokumentumban. „Sok minden, amiről eddig csak a sci-fiben mertünk álmodni, valósággá válhat, és az emberek többsége jóval értelmesebb életet élhetne, mint amire ma lehetőségük van.”
Ez a jövő azonban nem garantált, mivel az MI „lehet néhány vállalat kezében, amelyek használják és irányítják a szuperintelligenciát”, vagy „lehet az emberek kezében decentralizált módon” – figyelmeztet a dokumentum.
Az alapelvek dokumentuma megismétli az OpenAI néhány friss szakpolitikai javaslatát is, például hogy a kormányok fontolják meg „új gazdasági modellek” bevezetését, és fejlesszenek olyan technológiákat, amelyek leszorítják az MI-infrastruktúra költségeit.
„Sok minden, amit teszünk, kívülről furcsának tűnhet – például hogy hatalmas mennyiségű számítási kapacitást vásárolunk, miközben a bevételünk viszonylag csekély… –, de mindezt az egyetemes jólét jövőjébe vetett alapvető hitünk hajtja” – olvasható a dokumentumban.