Google先生のローカル推しが止まらない。もうVRAM積んだもん勝ちの世界だな
現状ローカルLLMで日本語の理解と表現を求める用途ならgemma4-31b一択
NHNGUMSG
E4Bみたいな小規模でもかなり自然な会話や出力できるからなー
法人で構築するとセキュリティの担保が難しいなあ
とりあえず使うならまあコレでいいかくらいの感じはある。かなりシステムプロンプトを遵守してくれるので多少アレな使い方でも言う事聞いてくれるのでその点でも良いよね。コーディングとかは他がいいかな
汎用用途がGemma4でコーティングがQwen3.6な感覚
群馬4かと思ったわ。
こいつ妙に推論遅いんだけど……
“「豚骨か鶏白湯のどっちか」と推定しましたが、正解は「横浜家系ラーメン」”→AIと使用者で回答の意味のレベルがいきちがってる気がする
VRAM16GBに合うのがないんだよな。gemma-4-26B-A4BはQ4KMでも溢れるので超絶遅くなる
いろんなLLM契約しているけど、ローカルはきわどい質問や個人情報も突っ込んで確認できるから便利
みんなこれでいいAI。Googleの最新ローカルLLM「Gemma 4」は日本語うますぎ、でも無料
Google先生のローカル推しが止まらない。もうVRAM積んだもん勝ちの世界だな
現状ローカルLLMで日本語の理解と表現を求める用途ならgemma4-31b一択
NHNGUMSG
E4Bみたいな小規模でもかなり自然な会話や出力できるからなー
法人で構築するとセキュリティの担保が難しいなあ
とりあえず使うならまあコレでいいかくらいの感じはある。かなりシステムプロンプトを遵守してくれるので多少アレな使い方でも言う事聞いてくれるのでその点でも良いよね。コーディングとかは他がいいかな
汎用用途がGemma4でコーティングがQwen3.6な感覚
群馬4かと思ったわ。
こいつ妙に推論遅いんだけど……
“「豚骨か鶏白湯のどっちか」と推定しましたが、正解は「横浜家系ラーメン」”→AIと使用者で回答の意味のレベルがいきちがってる気がする
VRAM16GBに合うのがないんだよな。gemma-4-26B-A4BはQ4KMでも溢れるので超絶遅くなる
いろんなLLM契約しているけど、ローカルはきわどい質問や個人情報も突っ込んで確認できるから便利