“Google Gemma 3n E4B:入門用ローカルLLM。ローカルLLMでは、必要十分な性能の軽いモデルがいちばん快適だったり。gpt-oss-20b:メインAIにしたすぎる真の無料ChatGPT。PLaMo翻訳:国産の、翻訳特化LLM”
ローカルLLMって結局オンメモリで動かないとスピードが出ないから前提となるMacのメモリサイズ書いていないと意味ないだろ…
gemma3n:e4bは7.5GBなので、16GB以上のメモリーが実装されていれば問題ないレベルで動きそうですね。個人的にはqwen3シリーズもオープンソースライセンスのLLMなのでおすすめです。
ビギナー向けクラウド系は触ったので ローカル気になってた。軽いのもあるのか
GPU 6GBレベルの弱弱GPUでも、モデルを選べばそれなりに実用レベルで動きますよ。
たまたまそういうビジネスをしてるプロダクトが見当たらないってだけであって、無料とローカルは本質的に無関係だろうに。
“plamo-2-translateは英語→日本語翻訳に特化したローカルLLMで、動作環境次第ではありますが50ページ近い超長文を1回で訳しきることも可能です”
“「PLaMo翻訳(plamo-2-translate)」は、「英語の最先端の情報」を読みこなしたいという人におすすめです。”
日本語で使いやすい。おすすめのローカルLLM3選
“Google Gemma 3n E4B:入門用ローカルLLM。ローカルLLMでは、必要十分な性能の軽いモデルがいちばん快適だったり。gpt-oss-20b:メインAIにしたすぎる真の無料ChatGPT。PLaMo翻訳:国産の、翻訳特化LLM”
ローカルLLMって結局オンメモリで動かないとスピードが出ないから前提となるMacのメモリサイズ書いていないと意味ないだろ…
gemma3n:e4bは7.5GBなので、16GB以上のメモリーが実装されていれば問題ないレベルで動きそうですね。個人的にはqwen3シリーズもオープンソースライセンスのLLMなのでおすすめです。
ビギナー向けクラウド系は触ったので ローカル気になってた。軽いのもあるのか
GPU 6GBレベルの弱弱GPUでも、モデルを選べばそれなりに実用レベルで動きますよ。
たまたまそういうビジネスをしてるプロダクトが見当たらないってだけであって、無料とローカルは本質的に無関係だろうに。
“plamo-2-translateは英語→日本語翻訳に特化したローカルLLMで、動作環境次第ではありますが50ページ近い超長文を1回で訳しきることも可能です”
“「PLaMo翻訳(plamo-2-translate)」は、「英語の最先端の情報」を読みこなしたいという人におすすめです。”