遂にマジのGPTのオープンモデルが出おった/とりあえず20bの方でMXFP4のGGUFを動かして見たけどGemma3よりも良さそうかもしれない
“120bは、NVIDIAのGPU「H100」1枚で動くサイズであり、20bはハイエンドGPUを搭載したデスクトップPCやノートPCでも動作するという。”
AWSで使える
Apache 2.0ライセンスのため利用・改変・再配布は自由、商用利用可能。これは使いやすい
太っ腹「Hugging FaceやGitHubからダウンロードして利用できる」
o4-mini に匹敵するなら相当だな。
20bがある程度動くんなら強い強くない?
これは試したい
だいぶ実用的になってきたなぁ
“米OpenAIは、オープンソースのAIモデル「gpt-oss」を発表”
o3並にねちっこく検索してくれるならアリだな。基本性能は割とどうでも良い
あっという間にパソコンに降ってきた
自分にカスタマイズすることできるのかなあ。できたとしてPCで果たして動くのか。一部の業界は「やるしかない」状態になって大変だろうな。
オープンソース版の発表 "20bはハイエンドGPUを搭載したデスクトップPCやノートPCでも動作する" ローカルLLM試してみたい
オープンじゃないとツッコまれ続けてきたけどついに出してきたな,あとで20B試してみよう
一般向けといいつつ24GBとか必要なんじゃないの、と思ったけど本当に一般向けの16GBで動くらしい。メインメモリはどれくらい必要なんだろう
120ビリオン・・・!
ささっとGithubとか覗いて来たけど、ToolとしてPythonコードをDocker内で実行できるのと(たぶんChatGPTの旧称Code Interpreterと同等機能)、20bでもコーディング・推論能力がそこそこ高いのが特徴的かな。16GBメモリグラボ欲しいな
AIがローカルで動かせることの良さはプライバシー?なんかよく分からないけど凄いニュースだよね?
horizonがgpt-5の噂だったけどこれがそうだったのか? だといたらオープンなモデルとしては破格の性能
microsoftが推してたNPUでは力不足?
多くのオープンウェイトモデルがGPTを蒸留して作られてる昨今、今更本家が出てきてもまあそうねって感じなんだよな。 / 120b家で動かせるの富豪だけだろ。
へぇ。
Deep mind対抗かな
試すか
WhisperばかりオープンにしていたOpenAI、ついにLLMをOpenWeightに
20Bが12GBと16GBのMacBookだと辛いサイズだ…M5のMacBook Proが出たらメモリが大きなやつに買い換えよう。と思ったらLM Studioだとロードすらできない。
ollama経由で動かしました。グラボ非搭載のPCでも動作しました。ただし激重。
動く、ただし大量の注釈付き?
オープンソースじゃなければ「gpt-oss」は何の略だろう?
ハイエンドってどうせ24GBだろと思ったら16GBで動くん?
そこはGPLライセンスで「gpt-gpl」みたいな名称にするべきだろう!
ClosedAIが久しぶりにOpenAIしていてびっくり
へー、o4-mini並みってマジ?ボクの方が可愛いのにゃ!
だからOpenAIのOpenはオープンソースじゃないと何度言えば…。IT界隈はOpenという英単語の意味はオープンソースしかないと勘違いしている連中が多すぎる。辞書引いてみろ。君ら小学生以下だぞ。
deepseek後のAMAでサム・アルトマンは「歴史的に誤った側にいる」「オープンソース戦略を模索する」と言い、オープンモデルを出す話もあったのでついに、という感じ。 https://www.reddit.com/r/OpenAI/comments/1ieonxv/comment/maa0dcx/
オープンソースじゃありませんって修正されてる…オープンウェイトて何だろ?
Apache2.0で出してくれているのがかなり大きくて,勝手にモデル作るときにライセンスの呪いを受けなくていいのが便利,だけどこういうのが出ちゃうと自分たちでモデル作る意味…
ローカルで動かせるみたいなのは夢はあるな。
https://gpt-oss.com/ 推論が生かされるタスクはかなり強そうだけど、日本の文化への理解がガバ気味で、120BをGemma 3 27Bと比べても妙な回答をするかも。あとo3並に表組みを好んで使うのが最近のOpenAIっぽい。なんにしろ喜ばしい
RTX 5060 Ti の 16 GB 版なら 100,000 円未満で手に入るな
エコノミーなモデルは案外こういう小さいモデルが動いているんじゃないかと思ってた。/このサイズはQwen(中国)とかMistral(フランス)とかあるので、焦ってGPUを買う必要はまったくない。性能にがっかりするだろう。
ローカルで20Bを動かしてみたが、VRAM消費16GBで収まる上にgemma 27Bと比べて3倍ぐらい早い。軽い分性能はそれなりだけど良い選択肢になりそうだ
https://www.cucei.udg.mx/maestrias/biotecnologia/sites/default/files/webform/speakonthespotinfo.pdf
他の方も書いてるけどossは何の略なのか気になる
https://ww2.arb.ca.gov/system/files/webform/public_comments/49011/dgsdx.pdf
とりま量子化された gpt-oss-20b-Q4_K_M.gguf をダウンロード中。さて見せてもらおうか、gpt-oss の実力とやらを
OpenAI、オープンソースのAIモデル「gpt-oss」発表 性能は“o4-mini”に匹敵 軽量版含む2種類を公開
遂にマジのGPTのオープンモデルが出おった/とりあえず20bの方でMXFP4のGGUFを動かして見たけどGemma3よりも良さそうかもしれない
“120bは、NVIDIAのGPU「H100」1枚で動くサイズであり、20bはハイエンドGPUを搭載したデスクトップPCやノートPCでも動作するという。”
AWSで使える
Apache 2.0ライセンスのため利用・改変・再配布は自由、商用利用可能。これは使いやすい
太っ腹「Hugging FaceやGitHubからダウンロードして利用できる」
o4-mini に匹敵するなら相当だな。
20bがある程度動くんなら強い強くない?
これは試したい
だいぶ実用的になってきたなぁ
“米OpenAIは、オープンソースのAIモデル「gpt-oss」を発表”
o3並にねちっこく検索してくれるならアリだな。基本性能は割とどうでも良い
あっという間にパソコンに降ってきた
自分にカスタマイズすることできるのかなあ。できたとしてPCで果たして動くのか。一部の業界は「やるしかない」状態になって大変だろうな。
オープンソース版の発表 "20bはハイエンドGPUを搭載したデスクトップPCやノートPCでも動作する" ローカルLLM試してみたい
オープンじゃないとツッコまれ続けてきたけどついに出してきたな,あとで20B試してみよう
一般向けといいつつ24GBとか必要なんじゃないの、と思ったけど本当に一般向けの16GBで動くらしい。メインメモリはどれくらい必要なんだろう
120ビリオン・・・!
ささっとGithubとか覗いて来たけど、ToolとしてPythonコードをDocker内で実行できるのと(たぶんChatGPTの旧称Code Interpreterと同等機能)、20bでもコーディング・推論能力がそこそこ高いのが特徴的かな。16GBメモリグラボ欲しいな
AIがローカルで動かせることの良さはプライバシー?なんかよく分からないけど凄いニュースだよね?
horizonがgpt-5の噂だったけどこれがそうだったのか? だといたらオープンなモデルとしては破格の性能
microsoftが推してたNPUでは力不足?
多くのオープンウェイトモデルがGPTを蒸留して作られてる昨今、今更本家が出てきてもまあそうねって感じなんだよな。 / 120b家で動かせるの富豪だけだろ。
へぇ。
Deep mind対抗かな
試すか
WhisperばかりオープンにしていたOpenAI、ついにLLMをOpenWeightに
20Bが12GBと16GBのMacBookだと辛いサイズだ…M5のMacBook Proが出たらメモリが大きなやつに買い換えよう。と思ったらLM Studioだとロードすらできない。
ollama経由で動かしました。グラボ非搭載のPCでも動作しました。ただし激重。
動く、ただし大量の注釈付き?
オープンソースじゃなければ「gpt-oss」は何の略だろう?
ハイエンドってどうせ24GBだろと思ったら16GBで動くん?
そこはGPLライセンスで「gpt-gpl」みたいな名称にするべきだろう!
ClosedAIが久しぶりにOpenAIしていてびっくり
へー、o4-mini並みってマジ?ボクの方が可愛いのにゃ!
だからOpenAIのOpenはオープンソースじゃないと何度言えば…。IT界隈はOpenという英単語の意味はオープンソースしかないと勘違いしている連中が多すぎる。辞書引いてみろ。君ら小学生以下だぞ。
deepseek後のAMAでサム・アルトマンは「歴史的に誤った側にいる」「オープンソース戦略を模索する」と言い、オープンモデルを出す話もあったのでついに、という感じ。 https://www.reddit.com/r/OpenAI/comments/1ieonxv/comment/maa0dcx/
オープンソースじゃありませんって修正されてる…オープンウェイトて何だろ?
Apache2.0で出してくれているのがかなり大きくて,勝手にモデル作るときにライセンスの呪いを受けなくていいのが便利,だけどこういうのが出ちゃうと自分たちでモデル作る意味…
ローカルで動かせるみたいなのは夢はあるな。
https://gpt-oss.com/ 推論が生かされるタスクはかなり強そうだけど、日本の文化への理解がガバ気味で、120BをGemma 3 27Bと比べても妙な回答をするかも。あとo3並に表組みを好んで使うのが最近のOpenAIっぽい。なんにしろ喜ばしい
RTX 5060 Ti の 16 GB 版なら 100,000 円未満で手に入るな
エコノミーなモデルは案外こういう小さいモデルが動いているんじゃないかと思ってた。/このサイズはQwen(中国)とかMistral(フランス)とかあるので、焦ってGPUを買う必要はまったくない。性能にがっかりするだろう。
ローカルで20Bを動かしてみたが、VRAM消費16GBで収まる上にgemma 27Bと比べて3倍ぐらい早い。軽い分性能はそれなりだけど良い選択肢になりそうだ
https://www.cucei.udg.mx/maestrias/biotecnologia/sites/default/files/webform/speakonthespotinfo.pdf
他の方も書いてるけどossは何の略なのか気になる
https://ww2.arb.ca.gov/system/files/webform/public_comments/49011/dgsdx.pdf
とりま量子化された gpt-oss-20b-Q4_K_M.gguf をダウンロード中。さて見せてもらおうか、gpt-oss の実力とやらを