Az OpenAI majdnem egy évtizede: hogyan változott a küldetés, mit mond az új alapelvek dokumentuma?
Az OpenAI-t ma már kevésbé foglalkoztatja a mesterséges általános intelligencia (AGI), mint csaknem tíz évvel ezelőtt; a vállalat új küldetésnyilatkozata szerint inkább technológiája szélesebb körű bevezetésére helyezi a hangsúlyt.
Vasárnap az OpenAI frissítette „Elveink” című dokumentumát, amely rögzíti, hogyan kívánja a jövőben működtetni technológiáit.
Az új alapelvek több lényeges ponton is különböznek attól, amit a vállalat közel egy évtizede, még frissen alakult, nonprofit mesterségesintelligencia-kutató szervezetként tartott elsődlegesnek.
Kisebb hangsúly a mesterséges általános intelligencián
2018-ban (forrás: angol) az OpenAI elszántan a mesterséges általános szuperintelligenciára (AGI) összpontosított – arra az elképzelésre, hogy technológiájuk felülmúlja az emberi intelligenciát –, mára azonban ez csupán egyik eleme a vállalat átfogóbb MI-stratégiájának.
Mindkét dokumentumváltozat szerint az OpenAI küldetése, hogy gondoskodjon arról, hogy ez a technológia „az egész emberiség javát szolgálja”, a 2018-as szöveg azonban kifejezetten hangsúlyozza a biztonságos és hasznos fejlesztést.
„Elsődleges bizalmi kötelezettségünk az emberiség felé áll fenn” – olvasható a dokumentumban. „Arra számítunk, hogy küldetésünk teljesítéséhez jelentős erőforrásokat kell mozgósítanunk, de mindig törekedni fogunk arra, hogy a munkavállalóink és érintettjeink közötti érdekütközéseket minimálisra csökkentsük, nehogy sérüljön a széles körű haszon.”
A 2026-os változat (forrás: angol) ezzel szemben úgy fogalmaz, hogy továbbra is biztonságos rendszereket kell építeniük, a társadalomnak pedig meg kell küzdenie „az MI-képességek egymást követő szintjeivel, megérteni, integrálni őket, és közösen megtalálni a továbblépés legjobb módját”.
Az igazgató és társalapító, Sam Altman szerint 2026-ban az jelenti az utat előre, ha minden szinten demokratizálják az MI-t: mindenkinek hozzáférést biztosítanak, és ellenállnak annak, hogy a technológia „néhány szereplő kezében összpontosítsa a hatalmat”.
A 2026-os alapelvek szerint az OpenAI arra számít, hogy kormányokkal, nemzetközi szervezetekkel és más AGI-kezdeményezésekkel együttműködve „megfelelően megoldja az igazítás, a biztonság vagy a társadalom szempontjából jelentős problémákat, mielőtt továbbhaladna” a fejlesztésekkel.
Ennek példái lehetnek, hogy a ChatGPT-t olyan modellek ellensúlyozására használják, amelyek új kórokozók létrehozására lennének képesek, illetve hogy kiberálló modelleket építenek be a kritikus infrastruktúrákba.
Altman a hónap elején saját blogján is megindokolta, miért kerül háttérbe az AGI az OpenAI stratégiájában.
Szerinte az AGI-nek van egy „hatalomgyűrű-jellege”, amely „őrültségekre készteti az embereket”. Ezt szerinte csak úgy lehet ellensúlyozni, ha „arra törekszünk, hogy a technológiát széles körben megosszuk az emberekkel, és senki se birtokolja egyedül a gyűrűt”.
Az OpenAI már nem hátrál ki a versenyből egy biztonságosabb termék kedvéért
2018-ban az OpenAI azt írta, attól tart, hogy az AGI-fejlesztés „olyan versenyfutássá válik, amelyben nincs idő megfelelő biztonsági óvintézkedésekre”.
Vállalta, hogy leállítja saját modelljeit, és inkább olyan, „értékalapon összehangolt, a biztonságot előtérbe helyező” projektek támogatására áll át, amelyek közelebb visznek az AGI megvalósításához.
„A részleteket később dolgozzuk ki… de egy tipikus kiváltó feltétel lehet például az, ha az elkövetkező két évben ötven százaléknál nagyobb esélyt látunk a sikerre” – áll a 2018-as dokumentumban.
A 2026-os szövegben már nincs szó arról, hogy a vállalat félreállna egy nagyobb ügy érdekében. Ehelyett elismeri, hogy az OpenAI „sokkal nagyobb erőt képvisel a világban, mint néhány éve”, és megígéri, hogy átláthatóan közli, mikor és hogyan módosulhatnak működési elvei.
A cég azóta több riválissal, köztük az Anthropickal folytat éles versenyt.
Februárban az Anthropic megtagadta, hogy Donald Trump amerikai elnök kormányának korlátlan hozzáférést biztosítson mesterséges intelligenciájához katonai célokra. A döntés nyomán a vállalatot ellátási lánckockázatnak minősítették, és márciusban elrendelték, hogy a szövetségi szervek ne használják tovább az Anthropic MI-asszisztensét, Claude-ot.
Február 28-án az OpenAI lépett a keletkezett űrbe: megállapodást kötött a Hadügyminisztériummal, ami miatt egyes felhasználók bojkottálni kezdték a ChatGPT-t, és inkább a Claude-ot választották.
Az Anthropickot ebben a hónapban 800 milliárd dollárra (696 milliárd euróra) értékelték, vagyis nagyjából az OpenAI-val azonos szintre.
Homályos, egész társadalomnak szóló felhívások
A 2026-os dokumentumban az OpenAI több társadalmi változtatást is sürget, hogy a világ jobban alkalmazkodni tudjon az MI-hez.
„Egy olyan világot képzelünk el, ahol az általános jólét olyan szintjét érjük el, amelyet ma nehéz elképzelni” – áll a szövegben. „Sok minden, amit eddig csak sci-fiben mertünk elképzelni, valóra válhat, és az emberek többsége értelmesebb életet élhetne, mint amire ma lehetősége van.”
Ez a jövő azonban korántsem garantált, mert az MI-t „néhány kevés vállalat is birtokolhatja és irányíthatja, amelyek a szuperintelligenciát használják”, vagy „decentralizált módon is az emberek kezében lehet” – fogalmaz a dokumentum.
Az alapelvek dokumentuma megismétli az OpenAI néhány friss szakpolitikai javaslatát is: arra kéri például a kormányokat, hogy fontolják meg „új gazdasági modellek” bevezetését, és fejlesszenek olyan technológiákat, amelyek csökkentik az MI-infrastruktúra költségeit.
„Sok minden, amit teszünk, kívülről furcsának tűnhet – például hogy óriási számítási kapacitást vásárolunk, miközben a bevételünk viszonylag kicsi… –, de ez alapvető meggyőződésünkből fakad egy mindenki számára elérhető jólétet ígérő jövőről” – olvasható a szövegben.