テクノロジー

9Bなのに120B超え!? Qwen3.5-9BがローカルAIの常識を変えた (1/5)

1: nguyen-oi 2026/03/20 22:09

9Bで120B超えとかもはや魔法。ローカルLLM勢のVRAMが火を吹くな

2: misshiki 2026/03/20 22:57

Qwen3.5-9Bは新アーキテクチャで262Kトークン対応。120B級を超える指標もあり、16GB環境で長文・マルチモーダル処理が可能に。

3: kaputte 2026/03/20 23:34

えぐい

4: prjpn 2026/03/21 00:21

何をそこまでローカルでやりたいのか?貧乏なの?

5: romsentan 2026/03/21 00:32

何でそこまで無神経にクラウド推せるの?機密データ扱うような仕事はできないの?

6: kyahi227 2026/03/21 01:38

どう考えてもトークン従量課金が成立するわけがないから、クラウドLLMには成立性がないよな。かといってローカルLLMの課金モデルも思いつかないが。

7: bxmcr 2026/03/21 02:03

ローカルLLMはまだ先かと思っていたがもう動き始めるのか!