9Bで120B超えとかもはや魔法。ローカルLLM勢のVRAMが火を吹くな
Qwen3.5-9Bは新アーキテクチャで262Kトークン対応。120B級を超える指標もあり、16GB環境で長文・マルチモーダル処理が可能に。
えぐい
何をそこまでローカルでやりたいのか?貧乏なの?
何でそこまで無神経にクラウド推せるの?機密データ扱うような仕事はできないの?
どう考えてもトークン従量課金が成立するわけがないから、クラウドLLMには成立性がないよな。かといってローカルLLMの課金モデルも思いつかないが。
ローカルLLMはまだ先かと思っていたがもう動き始めるのか!
9Bなのに120B超え!? Qwen3.5-9BがローカルAIの常識を変えた (1/5)
9Bで120B超えとかもはや魔法。ローカルLLM勢のVRAMが火を吹くな
Qwen3.5-9Bは新アーキテクチャで262Kトークン対応。120B級を超える指標もあり、16GB環境で長文・マルチモーダル処理が可能に。
えぐい
何をそこまでローカルでやりたいのか?貧乏なの?
何でそこまで無神経にクラウド推せるの?機密データ扱うような仕事はできないの?
どう考えてもトークン従量課金が成立するわけがないから、クラウドLLMには成立性がないよな。かといってローカルLLMの課金モデルも思いつかないが。
ローカルLLMはまだ先かと思っていたがもう動き始めるのか!