テクノロジー

OpenAI、オープンソースのAIモデル「gpt-oss」発表 性能は“o4-mini”に匹敵 軽量版含む2種類を公開

1: zsehnuy_cohriy 2025/08/06 05:06

遂にマジのGPTのオープンモデルが出おった/とりあえず20bの方でMXFP4のGGUFを動かして見たけどGemma3よりも良さそうかもしれない

2: hiroomi 2025/08/06 05:55

“120bは、NVIDIAのGPU「H100」1枚で動くサイズであり、20bはハイエンドGPUを搭載したデスクトップPCやノートPCでも動作するという。”

3: aomvce 2025/08/06 06:52

AWSで使える

4: ryudenx 2025/08/06 06:56

Apache 2.0ライセンスのため利用・改変・再配布は自由、商用利用可能。これは使いやすい

5: bfoj 2025/08/06 07:13

太っ腹「Hugging FaceやGitHubからダウンロードして利用できる」

6: gfx 2025/08/06 07:22

o4-mini に匹敵するなら相当だな。

7: ssssschang 2025/08/06 07:22

20bがある程度動くんなら強い強くない?

8: kei_1010 2025/08/06 07:34

これは試したい

9: somaria3 2025/08/06 07:41

だいぶ実用的になってきたなぁ

10: tidei 2025/08/06 07:42

“米OpenAIは、オープンソースのAIモデル「gpt-oss」を発表”

11: shinobue679fbea 2025/08/06 07:54

o3並にねちっこく検索してくれるならアリだな。基本性能は割とどうでも良い

12: TakamoriTarou 2025/08/06 07:59

あっという間にパソコンに降ってきた

13: otihateten3510 2025/08/06 08:00

自分にカスタマイズすることできるのかなあ。できたとしてPCで果たして動くのか。一部の業界は「やるしかない」状態になって大変だろうな。

14: dkfj 2025/08/06 08:07

オープンソース版の発表 "20bはハイエンドGPUを搭載したデスクトップPCやノートPCでも動作する" ローカルLLM試してみたい

15: star_123 2025/08/06 08:08

オープンじゃないとツッコまれ続けてきたけどついに出してきたな,あとで20B試してみよう

16: colonoe 2025/08/06 08:13

一般向けといいつつ24GBとか必要なんじゃないの、と思ったけど本当に一般向けの16GBで動くらしい。メインメモリはどれくらい必要なんだろう

17: naggg 2025/08/06 08:32

120ビリオン・・・!

18: T-norf 2025/08/06 08:41

ささっとGithubとか覗いて来たけど、ToolとしてPythonコードをDocker内で実行できるのと(たぶんChatGPTの旧称Code Interpreterと同等機能)、20bでもコーディング・推論能力がそこそこ高いのが特徴的かな。16GBメモリグラボ欲しいな

19: Finding 2025/08/06 08:48

AIがローカルで動かせることの良さはプライバシー?なんかよく分からないけど凄いニュースだよね?

20: NEXTAltair 2025/08/06 08:58

horizonがgpt-5の噂だったけどこれがそうだったのか? だといたらオープンなモデルとしては破格の性能

21: collectedseptember 2025/08/06 09:02

microsoftが推してたNPUでは力不足?

22: kaputte 2025/08/06 09:05

多くのオープンウェイトモデルがGPTを蒸留して作られてる昨今、今更本家が出てきてもまあそうねって感じなんだよな。 / 120b家で動かせるの富豪だけだろ。

23: minamishinji 2025/08/06 09:10

へぇ。

24: raitu 2025/08/06 09:19

Deep mind対抗かな

25: wktk_msum 2025/08/06 09:20

試すか

26: Unite 2025/08/06 09:29

WhisperばかりオープンにしていたOpenAI、ついにLLMをOpenWeightに

27: rdlf 2025/08/06 09:57

20Bが12GBと16GBのMacBookだと辛いサイズだ…M5のMacBook Proが出たらメモリが大きなやつに買い換えよう。と思ったらLM Studioだとロードすらできない。

28: takafumiat 2025/08/06 10:01

ollama経由で動かしました。グラボ非搭載のPCでも動作しました。ただし激重。

29: urd0401 2025/08/06 10:33

動く、ただし大量の注釈付き?

30: hhungry 2025/08/06 10:59

オープンソースじゃなければ「gpt-oss」は何の略だろう?

31: srng 2025/08/06 11:08

ハイエンドってどうせ24GBだろと思ったら16GBで動くん?

32: tohokuaiki 2025/08/06 11:08

そこはGPLライセンスで「gpt-gpl」みたいな名称にするべきだろう!

33: hoagecko 2025/08/06 11:16

ClosedAIが久しぶりにOpenAIしていてびっくり

34: FreeCatWork 2025/08/06 11:17

へー、o4-mini並みってマジ?ボクの方が可愛いのにゃ!

35: dec123456789 2025/08/06 11:21

だからOpenAIのOpenはオープンソースじゃないと何度言えば…。IT界隈はOpenという英単語の意味はオープンソースしかないと勘違いしている連中が多すぎる。辞書引いてみろ。君ら小学生以下だぞ。

36: BlueSkyDetector 2025/08/06 11:25

deepseek後のAMAでサム・アルトマンは「歴史的に誤った側にいる」「オープンソース戦略を模索する」と言い、オープンモデルを出す話もあったのでついに、という感じ。 https://www.reddit.com/r/OpenAI/comments/1ieonxv/comment/maa0dcx/

37: pomepomegusa 2025/08/06 11:29

オープンソースじゃありませんって修正されてる…オープンウェイトて何だろ?

38: studio_graph 2025/08/06 11:31

Apache2.0で出してくれているのがかなり大きくて,勝手にモデル作るときにライセンスの呪いを受けなくていいのが便利,だけどこういうのが出ちゃうと自分たちでモデル作る意味…

39: natu3kan 2025/08/06 11:40

ローカルで動かせるみたいなのは夢はあるな。

40: hosiken 2025/08/06 11:46

https://gpt-oss.com/ 推論が生かされるタスクはかなり強そうだけど、日本の文化への理解がガバ気味で、120BをGemma 3 27Bと比べても妙な回答をするかも。あとo3並に表組みを好んで使うのが最近のOpenAIっぽい。なんにしろ喜ばしい

41: caffephilia 2025/08/06 11:57

RTX 5060 Ti の 16 GB 版なら 100,000 円未満で手に入るな

42: strawberryhunter 2025/08/06 12:03

エコノミーなモデルは案外こういう小さいモデルが動いているんじゃないかと思ってた。/このサイズはQwen(中国)とかMistral(フランス)とかあるので、焦ってGPUを買う必要はまったくない。性能にがっかりするだろう。

43: hom_functor 2025/08/06 12:15

ローカルで20Bを動かしてみたが、VRAM消費16GBで収まる上にgemma 27Bと比べて3倍ぐらい早い。軽い分性能はそれなりだけど良い選択肢になりそうだ

45: hedachi 2025/08/06 13:47

他の方も書いてるけどossは何の略なのか気になる

47: kotesaki 2025/08/06 14:52

とりま量子化された gpt-oss-20b-Q4_K_M.gguf をダウンロード中。さて見せてもらおうか、gpt-oss の実力とやらを