テクノロジー

ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27)

1: nguyen-oi 2026/02/28 18:24

VRAM 24GBあれば自宅でo3超えが動く時代か。Qwenの進化早すぎ

2: hiro99hiro99 2026/02/28 19:16

蒸留は兎も角として中国はこのあたり凄い。けれども、自分は結局のところgemini、gpt、opusを使用してるなぁ。出力レベルに納得出来ないから。

3: crimson_diamond 2026/02/28 19:20

AIで書いていて自分で試していない臭がする

4: yarumato 2026/02/28 21:03

“30BクラスのローカルLLMは、触ると微妙な感じだったが、Qwen3.5ファミリーは1世代先の感覚。コーディングの質が明らかに違う。長めのタスクを最後までやり切る。雑なプロンプトも意図を汲んでくれる”

5: otoan52 2026/02/28 21:58

LFS2.5の1.2Bシリーズが理解不能なレベルで速くてまともな回答を返してきてびっくりしな所だったので、モデルごとの性能ジャンプは実感のあるところ。27Bだと普通のマシンでは現実的な速度は難しそうだけども…

6: kyahi227 2026/02/28 22:16

Qwen3.5-27B(単独大容量グラボ向け)とQwen3.5-35B-A3B(複数グラボ分散向け)が概ねタイトルのような評判を受けてるのは事実。ただ商用LLMはサイズ1000Bを超えている物が多い。データ量なりではあるだろうな。

7: Angelfish3578 2026/03/01 00:06

具体的な必須メモリ容量についてはこちらも合わせて読むと良き https://unsloth.ai/docs/jp/moderu/qwen3.5

8: torish 2026/03/01 00:40

VRAM24GB確保が問題なんだよなあ

9: kamm 2026/03/01 01:44

Qwen3.5-35B-A3Bを使ってみたらローカルで動いてるとは思いないくらい驚愕の性能だった。27Bも試してみよう。Mac Book Pro M4 48GBでまあまあ実用的に動きました

10: somaria3 2026/03/01 03:47

成長曲線的に1年後はかなり実用的になってそう。まだしばらくは見にまわりclaudeにお布施するが

11: eartht 2026/03/01 09:10

タイパ、コスパともに見合わなそう。驚き屋を営みたいわけでは無いので、やっぱ普通にサブスクのを使う

12: cloverstudioceo 2026/03/01 10:04

読んでないけどコーディングは無理。エージェントとかチャットボットなら結構使える様になってきた。メインのニーズはエロチャットよ。エロフィルターを抜いたカスタムモデルが出回ってる

13: etah 2026/03/01 10:26

「刺さってる」とか、「この記事の芯」みたいなAI仕草は取り除いたほうがいいよねやっぱ

14: kei_1010 2026/03/01 10:42

OpenClawで使いたい

15: stabucky 2026/03/01 11:24

いくらローカルと言っても中国製ということで何かあるんじゃないかと疑ってしまう。

16: nekuro_kun 2026/03/01 12:01

IaC自動化

17: magi00 2026/03/01 12:29

クラウドのLLMの性能に慣れきってるからいつまでたってもローカルに移行する気が起きないに一票。ローカルLLMの行き先は組み込みであって単体利用はちょっとな

18: okinawazenzai 2026/03/01 12:43

VRAM16GBぐらいの人の方が多いだろうからなー実用的に動かせる人少なそう。4bitとかに落としたら行けるのかなーあとで試してみる。

19: misshiki 2026/03/02 17:50

“RTX 3090(VRAM 24GB)+5bit量子化で Qwen3.5-27B (Reasoning) を実用速度でローカル動作させた話。”

20: toaruR 2026/03/03 14:17

8000 は短くね?