VRAM 24GBあれば自宅でo3超えが動く時代か。Qwenの進化早すぎ
蒸留は兎も角として中国はこのあたり凄い。けれども、自分は結局のところgemini、gpt、opusを使用してるなぁ。出力レベルに納得出来ないから。
AIで書いていて自分で試していない臭がする
“30BクラスのローカルLLMは、触ると微妙な感じだったが、Qwen3.5ファミリーは1世代先の感覚。コーディングの質が明らかに違う。長めのタスクを最後までやり切る。雑なプロンプトも意図を汲んでくれる”
LFS2.5の1.2Bシリーズが理解不能なレベルで速くてまともな回答を返してきてびっくりしな所だったので、モデルごとの性能ジャンプは実感のあるところ。27Bだと普通のマシンでは現実的な速度は難しそうだけども…
Qwen3.5-27B(単独大容量グラボ向け)とQwen3.5-35B-A3B(複数グラボ分散向け)が概ねタイトルのような評判を受けてるのは事実。ただ商用LLMはサイズ1000Bを超えている物が多い。データ量なりではあるだろうな。
具体的な必須メモリ容量についてはこちらも合わせて読むと良き https://unsloth.ai/docs/jp/moderu/qwen3.5
VRAM24GB確保が問題なんだよなあ
ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27)
VRAM 24GBあれば自宅でo3超えが動く時代か。Qwenの進化早すぎ
蒸留は兎も角として中国はこのあたり凄い。けれども、自分は結局のところgemini、gpt、opusを使用してるなぁ。出力レベルに納得出来ないから。
AIで書いていて自分で試していない臭がする
“30BクラスのローカルLLMは、触ると微妙な感じだったが、Qwen3.5ファミリーは1世代先の感覚。コーディングの質が明らかに違う。長めのタスクを最後までやり切る。雑なプロンプトも意図を汲んでくれる”
LFS2.5の1.2Bシリーズが理解不能なレベルで速くてまともな回答を返してきてびっくりしな所だったので、モデルごとの性能ジャンプは実感のあるところ。27Bだと普通のマシンでは現実的な速度は難しそうだけども…
Qwen3.5-27B(単独大容量グラボ向け)とQwen3.5-35B-A3B(複数グラボ分散向け)が概ねタイトルのような評判を受けてるのは事実。ただ商用LLMはサイズ1000Bを超えている物が多い。データ量なりではあるだろうな。
具体的な必須メモリ容量についてはこちらも合わせて読むと良き https://unsloth.ai/docs/jp/moderu/qwen3.5
VRAM24GB確保が問題なんだよなあ