テクノロジー

AIプログラムの開発演習に使う低消費リソースローカルLLMはQwen3 1.7B Q4がベスト - きしだのHatena

1: isrc 2025/08/30 15:30

モデルのファイルサイズが1.2GBで1.5GBくらいメモリに余裕があれば動きます。たぶん、コア数は4コアくらいはあったほうがいいです。実際に開発するというとき何がいいかというと、Qwen3 14B Q4_K_Mになります。

2: yarumato 2025/08/31 12:45

“プロンプトにきちんと従うか、ツール呼び出しが安定してるか、が大事。GPT-oss 20Bは不安定。Gemma 3は日本語が流暢だけどツール利用が苦手。Qwen3 14B Q4_K_Mが安定。記事では読者のPCが貧弱かもと考慮してQwen3 1.7Bを選択”

4: okinawazenzai 2025/08/31 19:22

Qwenってサイズの割にコード作るの得意そうだなってはなんとなく感じていたけど本当にそうなんだー。ローカルLLM使った開発ってグラボどれぐらいまで許容されるんだろう?電気代とかにインパクトあるんかな。

5: misshiki 2025/08/31 21:19

“単にコードが正常に動くことを確認したいなど開発作業をまわすとき、特にユニットテストのように頻繁に呼び出すときに課金を考えたくないという場合にリソースの負荷が少なく動作に安心感があるのがQwen3 14B Q4_K_M”

6: harumomo2006 2025/09/01 06:27

一般家庭のパソコンで動くレベルの量子化されたものではまともなコードは書けない認識なんだけど

7: ai-economy-analysis 2025/09/01 07:08

勉強になりました。 1.7Bを開発途中に使っていても、本番環境で32Bの同系統のモデルに切り替えたとしても、コードの変更の手間が少なくすむ。それを利用してコストを抑えるのは盲点でした。

8: kojikoji75 2025/09/01 12:17

“特にユニットテストのように頻繁に呼び出すときに課金を考えたくないという場合にリソースの負荷が少なく動作に安心感があるのがQwen3 14B Q4_K_Mという感じです”