Visszatér a kínai AI-startup: egy éve töredékárú, világszínvonalú számítási kapacitásával forgatta fel az MI‑iparágat.
A kínai mesterségesintelligencia-vállalat, a DeepSeek bemutatta új, V4-es nagy nyelvi modelljének előzetes változatát, miközben felgyorsul a globális MI-verseny.
A DeepSeek tavaly az egyik legszorosabban figyelt MI-céggé vált, miután 2025 januárjában olyan modelleket dobott piacra, amelyek a jelek szerint erős teljesítményt nyújtottak alacsonyabb költségen, mint sok amerikai rivális.
A Hangcsouban működő startup két változatban adta ki az új modellt: DeepSeek V4-Pro és DeepSeek V4-Flash néven. A V4-Pro egy nagyobb modell, összetettebb feladatokra, míg a V4-Flash egy kisebb, gyorsabb válaszadásra és alacsonyabb üzemeltetési költségre tervezett verzió.
„Az általános tudást mérő teszteken a DeepSeek V4-Pro jelentősen megelőzi a többi nyílt forráskódú modellt, és csak kis mértékben marad el a csúcskategóriás, zárt Gemini-3.1-Pro mögött” – közölte a DeepSeek.
A cég szerint az új MI-modell „egymillió tokenes kontextushosszt” támogat, vagyis jóval nagyobb beviteli utasításokat – például hosszú dokumentumokat vagy kódot – tud feldolgozni, mielőtt választ ad.
A mesterséges intelligencia területén a kontextushossz azt jelenti, hogy egy modell egyszerre mennyi szöveget – tokenekben mérve – képes figyelembe venni. A nagyobb kontextusablak lehetővé teszi, hogy a modell hosszabb bemeneteket dolgozzon fel, és kimenetenként több információt vegyen figyelembe, az IBM szerint (forrás: angol).
„Üdv a költséghatékony, egymillió tokenes kontextus korszakában” – írta a cég a nyílt forráskódú MI-platformon, a Hugging Face-en közzétett közleményében.
A DeepSeek szerint a V4 „világelső hosszú kontextust nyújt drasztikusan csökkentett számítási és memóriaigény mellett”.
A vállalat a V4-Pro-t az OpenAI, az Anthropic és a Google versenymodelljeivel vetette össze, jóllehet a Google Gemini-3.1-Pro modellje egyes teszteken jobb eredményt ért el.
Az új modell olyan népszerű MI-ügynökökkel is használható, mint a Claude Code, az OpenClaw és az OpenCode, így a fejlesztők a DeepSeek saját csevegőbotján kívüli szoftverfeladatokra is bevethetik.
A zárt modelleket fejlesztő riválisainál nyitottabb megközelítéséről ismert DeepSeek a V4-et letölthetővé, tesztelhetővé és szabadon alakíthatóvá tette a Hugging Face-en.
A kínai startup 2024 végén hívta fel magára a figyelmet nyílt forráskódú V3-as modelljével, amely erős teljesítményével, alacsonyabb költségével és a sok amerikai riválisnál – köztük az OpenAI-nál és a Google-nél – gyengébb chipek használatával lepte meg az MI-ipart.
Globális MI-verseny
A vállalat 2025 januárjában került igazán a nemzetközi reflektorfénybe, amikor piacra dobta az R1-et, egy érvelésre szakosodott MI-modellt, amely saját állítása szerint olcsóbb volt, és ugyanolyan jól teljesített, mint a rivális OpenAI ChatGPT nagy nyelvi modelljei.
Néhány ország azonban betiltotta az állami szervek számára tavaly a DeepSeek használatát, köztük Olaszország, az Egyesült Államok és Dél-Korea, nemzetbiztonsági aggályokra hivatkozva.
Németország 2025-ben az Apple és a Google alkalmazásboltjaiban is betiltotta a DeepSeeket, azzal az indokkal, hogy az illegálisan továbbít felhasználói adatokat Kínába.
A V4 megjelenése egy nappal azutánra esik, hogy az amerikai MI-óriás, az OpenAI is piacra dobta legújabb modelljét, a GPT-5.5-öt, amelyet eddigi „legokosabb és legintuitívabb” rendszerének nevezett.
A premierre szintén egy nappal azután került sor, hogy a Fehér Ház azzal vádolta meg Kínát: ipari léptékben lopja az amerikai MI-laborok szellemi tulajdonát több ezer strómanfiókon keresztül.
Az OpenAI, az Anthropic és a Google arra figyelmeztetett idén, hogy a kínai MI-cégek – köztük a DeepSeek – úgynevezett modellkinyerési támadásokat (MEA), más néven „desztillációt” hajtanak végre.
A módszer során a nagyobb modellt kérdések ezreivel bombázzák, összegyűjtik a válaszait, majd ezekkel tanítanak be egy új, kisebb modellt, hogy hasonló módon „gondolkodjon”.