“Qwen3.5-9B” よさそう。今ggufモデルをダウンロード中!!ワクテカ!LMStudioで試したらGPUないPC(Ryzen9 5800 32GBでQ4_K_S利用)でもそこそこ動くし何より回答が賢い。久々にエキサイトした!
これを取り込んだswallow出るかな
“Alibaba”
ツール呼び出しをあまり間違えないのだけでもありがたい。/主要開発者の方辞めるとか動きがあるようで。オープンモデルは3.5が実質最後になったりするのかな。
最後の追記の分、8GBで動くのか。やってみたいが、Qwenはセキュリティ的に悩む
VRAM 16GBでQwen3.5動くのは熱いな。ローカルAIの進化速度が異次元すぎて震えるわ
中華AIって時点でお触り厳禁だからなぁ。
後で試してみよう。中華系は…という人には、先日NVIDIAが出したNemotron Nano 9B-v2-Japanese が同じく9Bで、なかなかいい感じでした。
洋の東西を問わずAI研究/開発で中華系人材が中心にいないプロジェクトの方が珍しいと思う。
個人的にはvision統合がかなりデカい。本筋では無いがこれから出てくる画像生成モデルにTEとして使われそうなサイズ感と性能。
人材界隈で人が離れたやつか
VRAM、コンシューマー向けにももっと増えるような時代やってくるのだろうか…
無料配布のLLMは中華がぶっちぎり、後は大きく遅れてフランスMistralか本家gpt-oss位しか無いから中華排除したら何も残らんで。自称国産も中華の改造ばっかり。それを嫌がってクラウドに情報献上してたら本末転倒やで。
お約束の天安門事件について質問。しっかり躾けられていた https://f.hatena.ne.jp/Nunocky/20260306074631
試したい
プライペートで画像生成して遊ぶには良さそう。遊ぶ用のハードウェア欲しいな
そうかGPT-OSS-20B出てからもう1年近く経ってたんだ。120Bでてから他の試す必要を感じなくなってしまってた。やっとQwen-3.5で追いついたのもこの騒動で停滞すんだろうな…
ひょえー、ローカルでこれくらい動くようになってるんだなあ……
【西川和久の不定期コラム】 さらばgpt-oss。VRAM 16GBあれば動作し、画像も理解してくれる「Qwen3.5」登場!
“Qwen3.5-9B” よさそう。今ggufモデルをダウンロード中!!ワクテカ!LMStudioで試したらGPUないPC(Ryzen9 5800 32GBでQ4_K_S利用)でもそこそこ動くし何より回答が賢い。久々にエキサイトした!
これを取り込んだswallow出るかな
“Alibaba”
ツール呼び出しをあまり間違えないのだけでもありがたい。/主要開発者の方辞めるとか動きがあるようで。オープンモデルは3.5が実質最後になったりするのかな。
最後の追記の分、8GBで動くのか。やってみたいが、Qwenはセキュリティ的に悩む
VRAM 16GBでQwen3.5動くのは熱いな。ローカルAIの進化速度が異次元すぎて震えるわ
中華AIって時点でお触り厳禁だからなぁ。
後で試してみよう。中華系は…という人には、先日NVIDIAが出したNemotron Nano 9B-v2-Japanese が同じく9Bで、なかなかいい感じでした。
洋の東西を問わずAI研究/開発で中華系人材が中心にいないプロジェクトの方が珍しいと思う。
個人的にはvision統合がかなりデカい。本筋では無いがこれから出てくる画像生成モデルにTEとして使われそうなサイズ感と性能。
人材界隈で人が離れたやつか
VRAM、コンシューマー向けにももっと増えるような時代やってくるのだろうか…
無料配布のLLMは中華がぶっちぎり、後は大きく遅れてフランスMistralか本家gpt-oss位しか無いから中華排除したら何も残らんで。自称国産も中華の改造ばっかり。それを嫌がってクラウドに情報献上してたら本末転倒やで。
お約束の天安門事件について質問。しっかり躾けられていた https://f.hatena.ne.jp/Nunocky/20260306074631
試したい
プライペートで画像生成して遊ぶには良さそう。遊ぶ用のハードウェア欲しいな
そうかGPT-OSS-20B出てからもう1年近く経ってたんだ。120Bでてから他の試す必要を感じなくなってしまってた。やっとQwen-3.5で追いついたのもこの騒動で停滞すんだろうな…
ひょえー、ローカルでこれくらい動くようになってるんだなあ……