結局Opusの方が圧倒的に早くて草。でもローカルでここまで動くのは夢あるな
なおOpus4.6使ったら8分だったとのこと。ローカルLLMにはロマンがあるが,性能・速度・運用面で使い所が難しいことも多い。機密性の観点で研究職系でニーズが高いが初期費用と構築・運用の難易度で断念する話を時々聞く
DGX Sparkが性能悪すぎなんや。クラスタ化している人もいるが、それでも悪い。
半日が24÷2=12時間なら1/6、8時間労働と考えて8÷2=4時間なら1/2か。爆速というほどではないな。
人間なら1時間移動にかかるところが、バスだと10分なんですよ(´・_・`)すごーい
“Claude Codeにおいて、標準のモデルであるSonnetやOpusでなく、ローカルLLMを指定。Ollamaやllama.cppより速くなる? vLLMを使おう。8分 vs 2時間はかなりの差があるものの、たった80BのLLMがここまでできたのも事実”
自己満とロマン。自分も持ってるがカメラの趣味と変わらないと思う。それよりは安価だけど。https://spark-arena.com/leaderboard こんな感じ。2台目迷ってる。巨大モデルを載せる趣味。う、動くぞコイツって言いたいだけ
合わせて読みたい「Qwen3-Coder-Next 80Bがコード書けるけど失敗の質が悪すぎてダメな理由をアーキテクチャから見てみる(https://nowokay.hatenablog.com/entry/2026/02/05/201438)」
ローカルLLMは、NDAや個人情報の問題(クラウド例外適用不可のため第三者提供に該当)を回避するためのデータクレンジング・ゲートウェイが活きる道だと思ってる。
AIなのに人間より5割早いだけって、あんまりアピールに、なってんのか?
ローカルでここまで動かせるのは凄いと思うけど、80B-A3Bじゃやっぱり限界があるかあ。
出来上がるところまで来たのはかなり大きい。まともに使えるのも時間の問題
Qwen3 Coder NextをClaude Code+LM Studio 4.0+vLLMで検証。並列リクエスト処理によりローカルLLMでも高速開発が可能に。半日作業を約2時間へ短縮した事例を紹介。
【西川和久の不定期コラム】 人間なら半日の作業が2時間に。ローカルLLM「Qwen3 Coder Next」で爆速開発
結局Opusの方が圧倒的に早くて草。でもローカルでここまで動くのは夢あるな
なおOpus4.6使ったら8分だったとのこと。ローカルLLMにはロマンがあるが,性能・速度・運用面で使い所が難しいことも多い。機密性の観点で研究職系でニーズが高いが初期費用と構築・運用の難易度で断念する話を時々聞く
DGX Sparkが性能悪すぎなんや。クラスタ化している人もいるが、それでも悪い。
半日が24÷2=12時間なら1/6、8時間労働と考えて8÷2=4時間なら1/2か。爆速というほどではないな。
人間なら1時間移動にかかるところが、バスだと10分なんですよ(´・_・`)すごーい
“Claude Codeにおいて、標準のモデルであるSonnetやOpusでなく、ローカルLLMを指定。Ollamaやllama.cppより速くなる? vLLMを使おう。8分 vs 2時間はかなりの差があるものの、たった80BのLLMがここまでできたのも事実”
自己満とロマン。自分も持ってるがカメラの趣味と変わらないと思う。それよりは安価だけど。https://spark-arena.com/leaderboard こんな感じ。2台目迷ってる。巨大モデルを載せる趣味。う、動くぞコイツって言いたいだけ
合わせて読みたい「Qwen3-Coder-Next 80Bがコード書けるけど失敗の質が悪すぎてダメな理由をアーキテクチャから見てみる(https://nowokay.hatenablog.com/entry/2026/02/05/201438)」
ローカルLLMは、NDAや個人情報の問題(クラウド例外適用不可のため第三者提供に該当)を回避するためのデータクレンジング・ゲートウェイが活きる道だと思ってる。
AIなのに人間より5割早いだけって、あんまりアピールに、なってんのか?
ローカルでここまで動かせるのは凄いと思うけど、80B-A3Bじゃやっぱり限界があるかあ。
出来上がるところまで来たのはかなり大きい。まともに使えるのも時間の問題
Qwen3 Coder NextをClaude Code+LM Studio 4.0+vLLMで検証。並列リクエスト処理によりローカルLLMでも高速開発が可能に。半日作業を約2時間へ短縮した事例を紹介。