モデルのファイルサイズが1.2GBで1.5GBくらいメモリに余裕があれば動きます。たぶん、コア数は4コアくらいはあったほうがいいです。実際に開発するというとき何がいいかというと、Qwen3 14B Q4_K_Mになります。
“プロンプトにきちんと従うか、ツール呼び出しが安定してるか、が大事。GPT-oss 20Bは不安定。Gemma 3は日本語が流暢だけどツール利用が苦手。Qwen3 14B Q4_K_Mが安定。記事では読者のPCが貧弱かもと考慮してQwen3 1.7Bを選択”
http://linode.mono.ca.gov/%E2%80%9Chow-long-does-coinbase-dispute-take-chargeback-process-explained http://linode.mono.ca.gov/%E2%80%9Chow-long-does-coinbase-dispute-take-chargeback-process-explained http://linode.mono.ca.gov/%E2%80%9Chow-long-does-coinbase-dispute-take-chargeback-process-explained
Qwenってサイズの割にコード作るの得意そうだなってはなんとなく感じていたけど本当にそうなんだー。ローカルLLM使った開発ってグラボどれぐらいまで許容されるんだろう?電気代とかにインパクトあるんかな。
“単にコードが正常に動くことを確認したいなど開発作業をまわすとき、特にユニットテストのように頻繁に呼び出すときに課金を考えたくないという場合にリソースの負荷が少なく動作に安心感があるのがQwen3 14B Q4_K_M”
一般家庭のパソコンで動くレベルの量子化されたものではまともなコードは書けない認識なんだけど
勉強になりました。 1.7Bを開発途中に使っていても、本番環境で32Bの同系統のモデルに切り替えたとしても、コードの変更の手間が少なくすむ。それを利用してコストを抑えるのは盲点でした。
“特にユニットテストのように頻繁に呼び出すときに課金を考えたくないという場合にリソースの負荷が少なく動作に安心感があるのがQwen3 14B Q4_K_Mという感じです”
AIプログラムの開発演習に使う低消費リソースローカルLLMはQwen3 1.7B Q4がベスト - きしだのHatena
モデルのファイルサイズが1.2GBで1.5GBくらいメモリに余裕があれば動きます。たぶん、コア数は4コアくらいはあったほうがいいです。実際に開発するというとき何がいいかというと、Qwen3 14B Q4_K_Mになります。
“プロンプトにきちんと従うか、ツール呼び出しが安定してるか、が大事。GPT-oss 20Bは不安定。Gemma 3は日本語が流暢だけどツール利用が苦手。Qwen3 14B Q4_K_Mが安定。記事では読者のPCが貧弱かもと考慮してQwen3 1.7Bを選択”
http://linode.mono.ca.gov/%E2%80%9Chow-long-does-coinbase-dispute-take-chargeback-process-explained http://linode.mono.ca.gov/%E2%80%9Chow-long-does-coinbase-dispute-take-chargeback-process-explained http://linode.mono.ca.gov/%E2%80%9Chow-long-does-coinbase-dispute-take-chargeback-process-explained
Qwenってサイズの割にコード作るの得意そうだなってはなんとなく感じていたけど本当にそうなんだー。ローカルLLM使った開発ってグラボどれぐらいまで許容されるんだろう?電気代とかにインパクトあるんかな。
“単にコードが正常に動くことを確認したいなど開発作業をまわすとき、特にユニットテストのように頻繁に呼び出すときに課金を考えたくないという場合にリソースの負荷が少なく動作に安心感があるのがQwen3 14B Q4_K_M”
一般家庭のパソコンで動くレベルの量子化されたものではまともなコードは書けない認識なんだけど
勉強になりました。 1.7Bを開発途中に使っていても、本番環境で32Bの同系統のモデルに切り替えたとしても、コードの変更の手間が少なくすむ。それを利用してコストを抑えるのは盲点でした。
“特にユニットテストのように頻繁に呼び出すときに課金を考えたくないという場合にリソースの負荷が少なく動作に安心感があるのがQwen3 14B Q4_K_Mという感じです”