Az OpenAI nyílt forráskodú mesterséges intelligencia modellek teljesítménye elég meggyőző a tesztek alapján.
Hat évvel a GPT-2 bemutatása után az OpenAI ismét megnyitja a mesterséges intelligencia világát: bejelentették a GPT-OSS-120B és GPT-OSS-20B modellek megjelenését. Ezek a nyílt súlyú, ingyenesen letölthető és helyben futtatható modellek új korszakot nyithatnak a fejlesztők, kutatók és vállalkozások számára.
Mi ez a két modell, és mit tudnak?
GPT-OSS-120B: Ez egy nagy teljesítményű, 117 milliárd paraméteres modell, amelyhez legalább 80 GB VRAM szükséges.
GPT-OSS-20B: Egy jóval kisebb, 21 milliárd paraméteres változat, amely már 16 GB VRAM-mal is működik, így könnyebben elérhető szélesebb kör számára is.
Mindkét modell Apache 2.0 licenc alatt érhető el, ami rugalmas felhasználási lehetőségeket biztosít – akár kereskedelmi célokra is.
Miért fontos ez?
Az OpenAI szerint ez a lépés „jelentős előrelépés a nyílt forráskódú ökoszisztéma felé, összhangban küldetésükkel, hogy a mesterséges intelligencia előnyeit mindenki számára hozzáférhetővé tegyék”. Az új modellek célja, hogy költséghatékony, testreszabható alternatívát nyújtsanak azon szervezetek számára, amelyek nem rendelkeznek nagy infrastruktúrával vagy erőforrásokkal.
Teljesítmény: Mit mutatnak a tesztek?
Az OpenAI mérései alapján a modellek teljesítménye meglepően versenyképes:
GPT-OSS-120B:
Codeforces kódolási teszt (eszközökkel): 2622 pont
Ez közel azonos az OpenAI saját o3 és o4-mini modelljeivel, sőt eszközök nélkül 2643 ponttal meg is előzte az o3-minit.
GPT-OSS-20B:
Eszközökkel: 2516 pont, ami szintén eléri az o3 és o4-mini szintjét.
Eszközök nélkül: 2230 pont, amivel szintén megelőzte az o3-minit.
További érdekesség, hogy a GPT-OSS-120B még egészségügyi és matematikai feladatokban is felülmúlta az o4-minit, míg a 20B modell stabilan veri az o3-minit.
A hallucináció problémája
Bár a nyílt modellek erősek, az OpenAI elismeri, hogy sokkal hajlamosabbak a „hallucinációra”, azaz hibás vagy kitalált válaszok generálására. A tesztek szerint ez az arány 49–53% között mozgott, míg a gondolkodóbb modellek (mint az o3 vagy o4-mini) lényegesen pontosabbak.
Platformtámogatás és hozzáférés
A modellek natívan kvantáltak MXFP4-ben, így futtatásuk hatékonyabb. Elérhetők több platformon is, többek között:
Microsoft Azure
Hugging Face
vLLM
Ollama
llama.cpp
LM Studio
AWS
Fireworks
Together AI
Letölthetők a Hugging Face tárhelyéről, és integrálhatók különféle helyi és felhőalapú rendszerekbe.
Kiknek szól?
Az OpenAI célja, hogy lerombolja az akadályokat, különösen a feltörekvő piacok, kisvállalkozások és erőforrás-korlátozott szektorok számára. Ezeknek a modelleknek köszönhetően olyan szereplők is részesülhetnek a modern AI előnyeiből, akik eddig nem fértek hozzá ilyen eszközökhöz.
Miért most?
Sokan kérdezték: miért most, és miért hat év után? Az OpenAI válasza világos: „a mesterséges intelligenciát széles körben elérhetővé és mindenki számára előnyössé szeretnénk tenni.”






