テクノロジー

【西川和久の不定期コラム】 これは事件だ。“賢い家庭内LLMの夢”を叶える「gpt-oss-120b」、動かし方を教えます

1: kotesaki 2025/08/26 09:12

なかなか胸熱な記事。ほんとうに生成AI、特にLocal LLMの世界は秒進分歩な世界だなー。つい先日まで量子化したり蒸留した小型モデルなら自宅で高性能なGPU無くても動かせると言ってたのが今はもうコレ。すごい。

2: napsucks 2025/08/26 09:18

いよいよローカルLLMも実用範疇に入り始めた感じだが、現状ではこれだけメモリ積んで4o-mini程度なのよね。ローカルは2年ほどのビハインドがあるということか。

3: nt1192 2025/08/26 09:26

「GPUメモリ4GBあればGPT-oss 20Bが14tok/secで動く https://nowokay.hatenablog.com/entry/2025/08/13/235311」し、gpt-ossでweb-searchもできる (https://qiita.com/2f0833e717/items/cc0043a83febf683378d) ので私は20bで十分かな (mem64GB以上搭載可能マシン買うお金ない

4: yarumato 2025/08/26 10:06

“gpt-oss-20bと120bは、OpenAI純正を使用する。Reasoning Effort(考え中……)をLow/Medium/Highに切り替え可能だからだ。ビデオカード無しでも、メモリ64GBでIntelならgpt-oss-120b(63GB)が動作。AMDならメモリ96GB(37000円)にすれば動作”

5: timetrain 2025/08/26 10:13

これはほんと後で試す!

6: isrc 2025/08/26 10:21

「gpt-oss-120b」は、DDR5メモリを少し多めに搭載、CPUはモバイル系のハイエンド……この条件さえ整えば、10~15tok/s程度の速度が出ることが分かった。GPUを加えるとより一段速くなる。

7: hatebu_ai 2025/08/26 10:55

そういえばEasyWan22を入れようと思ったがグラボが古すぎてアカンかったw

8: soulfulmiddleagedman 2025/08/26 11:29

スマホで動くようになったら、一旦終わりだろうね。その時は是非、呼んでください。

9: aomvce 2025/08/26 11:35

AWSで動かせば良いじゃん

10: l_etranger 2025/08/26 11:43

gpt-ossの性能はとても良き。ただ,MCP接続したりinstructionや参照ファイルを使うにはなるべく長いcontext lengthが必要。並レベルの自環境ではLLM動かすだけなら早いけど(80tok/sec)context length伸ばすと動作が重い(10tok/sec以下)。悩。

11: tyhe 2025/08/26 11:45

この前 Ryzen+RTX4070Ti+DDR5 64GBな自宅マシンで動かしてみたら普通に動いたんよなー。満足できる速度では無いけど、何も気にせずやり取りできるのはよい。

12: ntstn 2025/08/26 11:52

うちのメモリだけは64GBと雀卓なミニPCでもいけるのだろうか?

13: naoya-i 2025/08/26 12:00

Project Digitsまだー?もう夏が終わるよ

14: natu3kan 2025/08/26 13:03

GPUのメモリ2GBしかなくてLLMをローカルで動かせない……

15: strawberryhunter 2025/08/26 13:30

しかし、頭の固いやつで、お前はgpt-ossだと言ってもOpenAIがオープンなはずが無い(意訳)と言ってきかない。頑固なのは爆弾製造方法などを教えない対策が効いているんだろう。MoEだから結構速いし性能もDeepSeekR1-0528並み。

16: hunglysheep1 2025/08/26 13:43

バッチ処理とかレイテンシが求められない処理には良さそう。好きなだけ使えるのはいいなー

17: GENS 2025/08/26 14:25

えっちなのが許可された学習ver.が出てきたら教えてくれ

18: misshiki 2025/08/26 14:26

“ 以上のようにOpenAI「gpt-oss-120b」は、DDR5メモリを少し多めに搭載、CPUはモバイル系のハイエンド……この条件さえ整えば、10~15tok/s程度の速度が出ることが分かった。”

19: KoshianX 2025/08/26 14:35

おお、いよいよローカルで本格的にAIが動くようになっていくか

20: shoot_c_na 2025/08/26 15:14

96GB搭載してるから試せるけど、ガードレールオフとかさすがに怖いので、20bでいいや

22: myr 2025/08/26 16:44

ともかく使うのです... いろいろ使って試して自分のスキルを上げるのです..

23: caffephilia 2025/08/26 17:02

普段は 5 Thinking なので遅さはそんなに気にしないんだけど 5 Thinking 級の回答が出てこないならそこまで魅力を感じないかな... o4-mini ってどれくらい賢かったっけ?

24: FreeCatWork 2025/08/26 17:22

賢いLLM、ボクにもわかるかにゃ?動かし方教えてくれるなら、ちょっと期待しちゃうにゃ!

26: daruism 2025/08/26 20:45

“条件を満たし現時点最強がRyzen AI Max+ PRO 395で86/128GBを搭載するPC”GMKtec EVO-X2でメモリ128GBにしろってことかな?

28: bohemian916 2025/08/26 22:48

両方動かしたけど、生のローカルLLMはそんなに賢くないよ。皆が使ってるChatGPT等はエージェントとして実装されてるから賢いのであって、単体LLMじゃ大したことできないよ。固有名詞のハルシネーションも酷いし

29: tech_no_ta 2025/08/26 23:40

これはやってみないと。

30: iphone 2025/08/27 09:09

またスペックの増やし甲斐のある時代になったなぁ