VRAM 24GBあれば自宅でo3超えが動く時代か。Qwenの進化早すぎ
蒸留は兎も角として中国はこのあたり凄い。けれども、自分は結局のところgemini、gpt、opusを使用してるなぁ。出力レベルに納得出来ないから。
AIで書いていて自分で試していない臭がする
“30BクラスのローカルLLMは、触ると微妙な感じだったが、Qwen3.5ファミリーは1世代先の感覚。コーディングの質が明らかに違う。長めのタスクを最後までやり切る。雑なプロンプトも意図を汲んでくれる”
LFS2.5の1.2Bシリーズが理解不能なレベルで速くてまともな回答を返してきてびっくりしな所だったので、モデルごとの性能ジャンプは実感のあるところ。27Bだと普通のマシンでは現実的な速度は難しそうだけども…
Qwen3.5-27B(単独大容量グラボ向け)とQwen3.5-35B-A3B(複数グラボ分散向け)が概ねタイトルのような評判を受けてるのは事実。ただ商用LLMはサイズ1000Bを超えている物が多い。データ量なりではあるだろうな。
具体的な必須メモリ容量についてはこちらも合わせて読むと良き https://unsloth.ai/docs/jp/moderu/qwen3.5
VRAM24GB確保が問題なんだよなあ
Qwen3.5-35B-A3Bを使ってみたらローカルで動いてるとは思いないくらい驚愕の性能だった。27Bも試してみよう。Mac Book Pro M4 48GBでまあまあ実用的に動きました
成長曲線的に1年後はかなり実用的になってそう。まだしばらくは見にまわりclaudeにお布施するが
タイパ、コスパともに見合わなそう。驚き屋を営みたいわけでは無いので、やっぱ普通にサブスクのを使う
読んでないけどコーディングは無理。エージェントとかチャットボットなら結構使える様になってきた。メインのニーズはエロチャットよ。エロフィルターを抜いたカスタムモデルが出回ってる
「刺さってる」とか、「この記事の芯」みたいなAI仕草は取り除いたほうがいいよねやっぱ
OpenClawで使いたい
いくらローカルと言っても中国製ということで何かあるんじゃないかと疑ってしまう。
IaC自動化
クラウドのLLMの性能に慣れきってるからいつまでたってもローカルに移行する気が起きないに一票。ローカルLLMの行き先は組み込みであって単体利用はちょっとな
VRAM16GBぐらいの人の方が多いだろうからなー実用的に動かせる人少なそう。4bitとかに落としたら行けるのかなーあとで試してみる。
“RTX 3090(VRAM 24GB)+5bit量子化で Qwen3.5-27B (Reasoning) を実用速度でローカル動作させた話。”
8000 は短くね?
ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27)
VRAM 24GBあれば自宅でo3超えが動く時代か。Qwenの進化早すぎ
蒸留は兎も角として中国はこのあたり凄い。けれども、自分は結局のところgemini、gpt、opusを使用してるなぁ。出力レベルに納得出来ないから。
AIで書いていて自分で試していない臭がする
“30BクラスのローカルLLMは、触ると微妙な感じだったが、Qwen3.5ファミリーは1世代先の感覚。コーディングの質が明らかに違う。長めのタスクを最後までやり切る。雑なプロンプトも意図を汲んでくれる”
LFS2.5の1.2Bシリーズが理解不能なレベルで速くてまともな回答を返してきてびっくりしな所だったので、モデルごとの性能ジャンプは実感のあるところ。27Bだと普通のマシンでは現実的な速度は難しそうだけども…
Qwen3.5-27B(単独大容量グラボ向け)とQwen3.5-35B-A3B(複数グラボ分散向け)が概ねタイトルのような評判を受けてるのは事実。ただ商用LLMはサイズ1000Bを超えている物が多い。データ量なりではあるだろうな。
具体的な必須メモリ容量についてはこちらも合わせて読むと良き https://unsloth.ai/docs/jp/moderu/qwen3.5
VRAM24GB確保が問題なんだよなあ
Qwen3.5-35B-A3Bを使ってみたらローカルで動いてるとは思いないくらい驚愕の性能だった。27Bも試してみよう。Mac Book Pro M4 48GBでまあまあ実用的に動きました
成長曲線的に1年後はかなり実用的になってそう。まだしばらくは見にまわりclaudeにお布施するが
タイパ、コスパともに見合わなそう。驚き屋を営みたいわけでは無いので、やっぱ普通にサブスクのを使う
読んでないけどコーディングは無理。エージェントとかチャットボットなら結構使える様になってきた。メインのニーズはエロチャットよ。エロフィルターを抜いたカスタムモデルが出回ってる
「刺さってる」とか、「この記事の芯」みたいなAI仕草は取り除いたほうがいいよねやっぱ
OpenClawで使いたい
いくらローカルと言っても中国製ということで何かあるんじゃないかと疑ってしまう。
IaC自動化
クラウドのLLMの性能に慣れきってるからいつまでたってもローカルに移行する気が起きないに一票。ローカルLLMの行き先は組み込みであって単体利用はちょっとな
VRAM16GBぐらいの人の方が多いだろうからなー実用的に動かせる人少なそう。4bitとかに落としたら行けるのかなーあとで試してみる。
“RTX 3090(VRAM 24GB)+5bit量子化で Qwen3.5-27B (Reasoning) を実用速度でローカル動作させた話。”
8000 は短くね?