テクノロジー

財布を気にしたくないのでローカルLLM(Gemma3)にコードを書かせてみた - MNTSQ Techブログ

1: RYoMa_0923 2025/03/25 10:49

お試ししてみました

2: misshiki 2025/03/25 18:11

“残念ながらgemma-3-4b-itでは正しいFizz Buzzプログラムを出力するまでは、結構な手数が必要でした。 プロンプトの書き方についてはまだまだ改良の余地はありそうなのでこの辺りを磨いていくことで改善はできるかも。”

3: KoshianX 2025/03/25 19:52

うちの M2 Pro で RAM 32GB の Mac mini でも gemma-3-4b-it なら割東国から試してみようと思ってたやつだ。ちゃんと Cline から動かせるんだな。しかしこれなら別マシンで動かす手もありそうだなあ

4: yarumato 2025/03/25 22:14

“Clineにコードの変更を依頼するたびに、外部LLM代金がかかる。LM Studioを導入。mem:64GB、VRAM:16GB。残念ながらgemma-3-4b-itでは正しいFizz Buzz出力は手数が必要。gemma-3-12b-itはFizz Buzzを正しく生成したが非実用的な出力速度”

5: prjpn 2025/03/25 23:49

やはりRyzen AI Max+ 395が全てを救うのか

6: Phenomenon 2025/03/26 01:09

結構ツールの使用がうまくできなくて厳しいっすよね

7: replier 2025/03/26 02:20

ローカルLLMでMCPを試すと「外部サービスを使いなさい…」という声がそれとなく聞こえてきますね。

8: cloverstudioceo 2025/03/26 04:32

FizzBuzzだけかーいw 自分で試してみるかー

9: uehaj 2025/03/26 06:08

惜しいな。

10: zgmf-x20a 2025/03/26 07:23

VRAM16GBのGPUノートってやはり結構するな。大昔、SparcLTを指を咥えて見てたっけ。

11: kei_1010 2025/03/26 07:38

やはりそんな感じか。QwQ32Bでも微妙だからなぁ

12: diveintounlimit 2025/03/26 07:56

うーん残念な感じ

13: punychan 2025/03/26 08:54

ラップトップで4Bモデルだとそうなるか。DGX Spark(Project DIGITS)に期待してる。

14: udddbbbu 2025/03/26 10:02

検証記事ありがたやー

15: pwatermark 2025/03/26 11:00

現状、ローカルLLMでは「まともに動く」とはとても言えないんだよねえ....

16: fivestech 2025/03/26 12:00

NVIDIA DGXやRyzen AI MAX+ 395ならGemma 3 27Bを動かしてまともなコードを出してくれるだろ

17: cocelo 2025/03/26 12:28

o1やらSonnet 3.7体験した後だとローカルLLMはどうにも使いづらい…簡単なコーディングならうまくいくので、なんとか使い所を定量的に設定したいところ

18: puruhime 2025/03/26 12:49

Clineで使うならqwen2.5-coderの方がいいと思う

19: strawberryhunter 2025/03/26 13:22

正直、そんな小さいモデルで何ができるというのだろうか。APIに課金した方が現実的だろう。

20: knok 2025/03/26 13:54

CopilotのLM APIでも定額でできはするが、モデルによって上限があるからなあ

21: timetrain 2025/03/26 14:52

導入手順から

22: vegnpomn 2025/03/26 18:38

タイトルにもローカルLLMで検証する意図が全て書いてるのに課金したほうが現実的とか、AIブクマかでももうちょっと文脈読んだコメントができそうだが

23: hogeaegxa 2025/03/26 18:46

FizzBuzzは有名で答えも仕様も非常に明確な代物だけど、それを生成するのもうまくいかないっていうのは想像以上にダメだな。Clineで使ってるからダメなのか?

24: tmatsuu 2025/03/30 23:20

Gemma3 + Clineで。LM Studioの代わりにOllamaでもいけそう。