テクノロジー

ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27)

1: nguyen-oi 2026/02/28 18:24

VRAM 24GBあれば自宅でo3超えが動く時代か。Qwenの進化早すぎ

2: hiro99hiro99 2026/02/28 19:16

蒸留は兎も角として中国はこのあたり凄い。けれども、自分は結局のところgemini、gpt、opusを使用してるなぁ。出力レベルに納得出来ないから。

3: crimson_diamond 2026/02/28 19:20

AIで書いていて自分で試していない臭がする

4: yarumato 2026/02/28 21:03

“30BクラスのローカルLLMは、触ると微妙な感じだったが、Qwen3.5ファミリーは1世代先の感覚。コーディングの質が明らかに違う。長めのタスクを最後までやり切る。雑なプロンプトも意図を汲んでくれる”

5: otoan52 2026/02/28 21:58

LFS2.5の1.2Bシリーズが理解不能なレベルで速くてまともな回答を返してきてびっくりしな所だったので、モデルごとの性能ジャンプは実感のあるところ。27Bだと普通のマシンでは現実的な速度は難しそうだけども…

6: kyahi227 2026/02/28 22:16

Qwen3.5-27B(単独大容量グラボ向け)とQwen3.5-35B-A3B(複数グラボ分散向け)が概ねタイトルのような評判を受けてるのは事実。ただ商用LLMはサイズ1000Bを超えている物が多い。データ量なりではあるだろうな。

7: Angelfish3578 2026/03/01 00:06

具体的な必須メモリ容量についてはこちらも合わせて読むと良き https://unsloth.ai/docs/jp/moderu/qwen3.5

8: torish 2026/03/01 00:40

VRAM24GB確保が問題なんだよなあ