お試ししてみました
“残念ながらgemma-3-4b-itでは正しいFizz Buzzプログラムを出力するまでは、結構な手数が必要でした。 プロンプトの書き方についてはまだまだ改良の余地はありそうなのでこの辺りを磨いていくことで改善はできるかも。”
うちの M2 Pro で RAM 32GB の Mac mini でも gemma-3-4b-it なら割東国から試してみようと思ってたやつだ。ちゃんと Cline から動かせるんだな。しかしこれなら別マシンで動かす手もありそうだなあ
“Clineにコードの変更を依頼するたびに、外部LLM代金がかかる。LM Studioを導入。mem:64GB、VRAM:16GB。残念ながらgemma-3-4b-itでは正しいFizz Buzz出力は手数が必要。gemma-3-12b-itはFizz Buzzを正しく生成したが非実用的な出力速度”
やはりRyzen AI Max+ 395が全てを救うのか
結構ツールの使用がうまくできなくて厳しいっすよね
ローカルLLMでMCPを試すと「外部サービスを使いなさい…」という声がそれとなく聞こえてきますね。
FizzBuzzだけかーいw 自分で試してみるかー
惜しいな。
VRAM16GBのGPUノートってやはり結構するな。大昔、SparcLTを指を咥えて見てたっけ。
やはりそんな感じか。QwQ32Bでも微妙だからなぁ
うーん残念な感じ
ラップトップで4Bモデルだとそうなるか。DGX Spark(Project DIGITS)に期待してる。
検証記事ありがたやー
現状、ローカルLLMでは「まともに動く」とはとても言えないんだよねえ....
NVIDIA DGXやRyzen AI MAX+ 395ならGemma 3 27Bを動かしてまともなコードを出してくれるだろ
o1やらSonnet 3.7体験した後だとローカルLLMはどうにも使いづらい…簡単なコーディングならうまくいくので、なんとか使い所を定量的に設定したいところ
Clineで使うならqwen2.5-coderの方がいいと思う
正直、そんな小さいモデルで何ができるというのだろうか。APIに課金した方が現実的だろう。
CopilotのLM APIでも定額でできはするが、モデルによって上限があるからなあ
導入手順から
タイトルにもローカルLLMで検証する意図が全て書いてるのに課金したほうが現実的とか、AIブクマかでももうちょっと文脈読んだコメントができそうだが
FizzBuzzは有名で答えも仕様も非常に明確な代物だけど、それを生成するのもうまくいかないっていうのは想像以上にダメだな。Clineで使ってるからダメなのか?
Gemma3 + Clineで。LM Studioの代わりにOllamaでもいけそう。
財布を気にしたくないのでローカルLLM(Gemma3)にコードを書かせてみた - MNTSQ Techブログ
お試ししてみました
“残念ながらgemma-3-4b-itでは正しいFizz Buzzプログラムを出力するまでは、結構な手数が必要でした。 プロンプトの書き方についてはまだまだ改良の余地はありそうなのでこの辺りを磨いていくことで改善はできるかも。”
うちの M2 Pro で RAM 32GB の Mac mini でも gemma-3-4b-it なら割東国から試してみようと思ってたやつだ。ちゃんと Cline から動かせるんだな。しかしこれなら別マシンで動かす手もありそうだなあ
“Clineにコードの変更を依頼するたびに、外部LLM代金がかかる。LM Studioを導入。mem:64GB、VRAM:16GB。残念ながらgemma-3-4b-itでは正しいFizz Buzz出力は手数が必要。gemma-3-12b-itはFizz Buzzを正しく生成したが非実用的な出力速度”
やはりRyzen AI Max+ 395が全てを救うのか
結構ツールの使用がうまくできなくて厳しいっすよね
ローカルLLMでMCPを試すと「外部サービスを使いなさい…」という声がそれとなく聞こえてきますね。
FizzBuzzだけかーいw 自分で試してみるかー
惜しいな。
VRAM16GBのGPUノートってやはり結構するな。大昔、SparcLTを指を咥えて見てたっけ。
やはりそんな感じか。QwQ32Bでも微妙だからなぁ
うーん残念な感じ
ラップトップで4Bモデルだとそうなるか。DGX Spark(Project DIGITS)に期待してる。
検証記事ありがたやー
現状、ローカルLLMでは「まともに動く」とはとても言えないんだよねえ....
NVIDIA DGXやRyzen AI MAX+ 395ならGemma 3 27Bを動かしてまともなコードを出してくれるだろ
o1やらSonnet 3.7体験した後だとローカルLLMはどうにも使いづらい…簡単なコーディングならうまくいくので、なんとか使い所を定量的に設定したいところ
Clineで使うならqwen2.5-coderの方がいいと思う
正直、そんな小さいモデルで何ができるというのだろうか。APIに課金した方が現実的だろう。
CopilotのLM APIでも定額でできはするが、モデルによって上限があるからなあ
導入手順から
タイトルにもローカルLLMで検証する意図が全て書いてるのに課金したほうが現実的とか、AIブクマかでももうちょっと文脈読んだコメントができそうだが
FizzBuzzは有名で答えも仕様も非常に明確な代物だけど、それを生成するのもうまくいかないっていうのは想像以上にダメだな。Clineで使ってるからダメなのか?
Gemma3 + Clineで。LM Studioの代わりにOllamaでもいけそう。