Mac studioのいい感じのが手に入らなくなってる。
ローカルでここまで動くのは胸熱だけど、VRAMの暴力が加速して財布が死ぬ未来しか見えない
ライター氏はPCでの話をしてるけど、Google AI Edge Galleryをスマホにインストールして、Wifiの効かない格安LCCの機内でGemma 4とチャットして「まだまだだな」と優越感に浸れるか試してみるのもオツだと思う。
ローカルLLMは夢が広がるねえ。あとは人間の記憶を完全に蒸留できれば、もうSFの世界だわ
まだまだだという意見も多いけど、実際に自分で確かめてみるか
インターネットつなげられない環境にもエージェント欲しい場面が多い
1年後にはもっと簡単に導入できてさらに高性能になってるはず。だからまだ早い…♠(やらない言い訳)
も少し簡単にならないとなー
やっぱりネットに繋がらないとな〜ってなってくる。でも、安全性を担保しないといけない。難しい。
今後のAI進化のメインストリームかなとは
結構前にローカルで試した感じだとネットで調べてくれない分調べ物系はダメだった気がする。調べ物だけネットで推論はローカルとかできるようになってればいいな。
GPUがなぁ……
GIGAZINEにしてはわかりやすい見出しじゃん、と思ったらGIZMODOだったか
今だに概要がよく分からなくて手を出してない。これもいずれ無料ではなくなる?
「無料・格安で使わせて覇権取ったら有料・値上げ」のパターンが多すぎて、「今の時点で安い事」にあんまり価値を感じないんだよね。逆にこれを公開してる側のメリットはなんだろう。
ローカルLLMにぶち込んだ文章の中の個人情報の部分だけ匿名化させて、それを普通のAIにコピペすればいいとこ取りできないかな。
凄いが同時にまだまだ。メモリの容量、帯域に律速していて劇的にパソコン構成と価格構成が変わらない限りキツイ気がしてならない
31Bは半年~1年前のクローズモデル程度の能力は出てるらしい。GPT5~5.1相当。さすがに普通のゲーミングPCでは厳しく、ウルトラハイエンドかAI用に組んだものが必要だが。今後の進化が待ち遠しい
さすがにグラボ積んでないマシンだとねぇ。ゲームに使わないPCにGPU積むには高すぎるし、メモリで誤魔化すにも高騰しすぎだよ。
redisの作者がdeepseek 4用に書いたインターフェースエンジンが凄くて、SSD上にKV保存させて、MacのGPU最適化のMetalを利用し、128GBのメモリで1Mコンテクスト枠使えるようにしてる → https://github.com/antirez/ds4
メモリとかがバチクソ高くなったらAIやサーバーの企業としてはそれを減らす技術に投資するわな。もちろんリソースを多く使うモデルの優位性は変わらないけど副産物としてプアな環境でも使えるモデルは増えるだろう。
昔と比べたら凄い進化なんだけどクラウド側のAIがもっと凄いのでどうしても霞んでしまう
チャットでは人間が律速段階になるので稼働率が上がらずクラウドと比べてペイしなかったのが、Agentic AIとして使うことで人間がbottleneckではなくなり、稼働率が上がってペイするようになったと言うのも大きいよね。
将来を見越したつもりでNPU機を買ってあった(GPU機は高価なので)のに、LM Studioは非対応なんだよなぁ。
LLMの進化が止まらないな。いつまで進化し続けるんだ
いつか値上げするだろって人、OSSのことを知らないのか? 将来的に有料になっても既に手元にあるものは使い続けられるよ。
AIの地方巡業でしょうか
凄いんだけどクローズドの進化がヤバいしお手頃なので相対的にやっぱ使えないんだよねぇ。1年前にチャット経由でやってた事は一通り出来るんだけど
アンチAIのギズモ執筆陣が気でも違えたか?
チャッピーだけでいいや
賢いローカルAIを使えるGPUをくだしゃい
無料で使うために高価なGPU積んだPCを入手するという本末転倒を起こさないといけなくなるので素直に金払います…
今まさにやろうとしている。Pythonライブラリだけでは誤判定が多く、Ollama+Gemmaで文脈読んで匿名化処理。>"ローカルLLMにぶち込んだ文章の中の個人情報の部分だけ匿名化させて、それを普通のAIにコピペ"
NPU機持て余してるマンは今すぐlemonadeをインストールするんだ。わからんことはclaudeに聞くのだ。LMS使ってるならモデルも共有出来っから
RTX3060/12GBだとGemma4はE4Bまでが現実的ぽい。26B-A4Bも試してみたい。ただ画像生成と違ってなにをさせるかが問題。ローカルで動かすメリットが自分にマッチするかどうか
Ollama でqwen 72B動かしてる。バカ高いパソコンやパーツが必要だよ。特に今は値上がりしてる。
ボクの頭脳もローカルLLMみたいに賢くなればいいのにゃ!
素人(私のような)はゲーミングPCを転用して、LM Studioと適当なモデルをダウンロードして遊ぶのが簡単。VRAMの関係で低サイズ、量子化必須だったりするがね。
ごっついGPU積んだPCの消費電力結構凄くて、起動しっぱなしだと月の電気代でAIサブスク払えるぐらいかかるけど、その辺ちゃんと考慮してるのかな
翻訳タスク程度だとかなり使える。速度や気の利き具合は汎用LLMにはかなわないが、適当にサマリーしたり嘘をつかず実直に仕事をするのが良い。
ローカルで動かすためのPCを買う金額で何ヶ月契約できるかを考えると…
Qwen3.5-9B試してみたけどあんまり満足は行かなかった。gptで言うと3.5よりマシ、4o以下って感じ。まあそれがローカルで動くのはすごいんだけどね
ローカルLLMまともに使える環境代と毎月のクラウドAI代とどっちが良いかで考えると現状クラウドかなって。あくまで現状ではだけど。
ローカルが最前線のお零れなのは昔からなのでまぁ
Gemma4はE4Bを試す
ローカルLLMはロマンがあるけど、それだけ。無料で使うためのコストを考えると普通にサービス契約した方がいい。とか言いつつ64GB積んだMacBook Proを買ってしまった。
32GB の MacBook Air で 31B 動くよ。30 万円。ハイエンドゲーミング PC より全然安い。
低スペック用だとどの程度性能が下がるのかがよくわからないんだよなあ。性能を褒めてる記事って最高の性能用のもので書いてるみたいだし
ROCm版PyTorch・LM StudioでQwen3.6 27BがRadeon RX 9060XT 16GBにギリ乗っかる。まずは検証ということで。
そろそろ、GPUぶん回すよりNPUに計算回るような作りのフロントエンドが欲しい。lemonadeServerはチャットを記憶してくれないので、ページを要約くらいにしか使い道が無い
クラウドAIの利用料がある日10倍になったり、為替レートで日本円が激安になったりしても、ローカルでAI動かす環境があればAgentic CodingさせたりDeepResearchしたり現在やってることを失わずに済む自由がある。
ClaudeやChatGPTの1世代前モデルに近いくらいの精度とパフォーマンス出そうと思ったら、それなりにハイスペックなGPU/NPU搭載機が要るが、企業内で安全に使う目的なら安い投資だろう。
クラウドと比較してるブコメが多いけど別用途なので的外れ。機密情報用/遊び用、クラウドとは併用。月額課金をケチるためのものではない。/ローカルで個人情報処理後にクラウドは定番だが特定不可かはかなり要注意。
大量の英文を翻訳させようと思って色々試したけどPCで動く程度の小さいモデルだとやっぱ全然馬鹿なんだよね。課金してるから結局そっちでやることになった。
PCの値段が上がっているし、個人だとローカルで動作させる動機が乏しい。
まだまだとは思ってもGemma4:31bで、途切れずうごくので、あほなこも永遠と実行できるのはメリット。電気代は千円以上上がった気がするけど、ガチで使ったらどうなるかな。/ローカルで色々試して本番はclaudeやcodex使う。
Agent動かし続けて湯水のようにトークン消費する用途だとローカルLLMに投げる意味も出て来る。普通にチャットで使ってる層にはあんま関係ない(エロ用途除く)
Qwen3.5 9Bぐらいだと無料のGemini以下って感じで結構厳しい
RTX3060 12GBでのQwen3.5-9Bで「まあ悪くはない」位の手応えはある。「すごい」ではない。
メモリがねえ
「自分の管理下でLLMを動かせる」方が魅力
2026年のローカルLLMはQwen3.5やGemma 4で高性能化。Ollama/LM Studio、OpenCode連携でエージェント的なコード生成や画像認識も可能に。無料だが導入難度は高め。
128GBユニファイドメモリー(CPUとGPUが同じメモリーを使う構成)搭載機は50万くらいが最低ライン。今注文できるMacだと90万弱。これくらいまでいけば相当使える
無料で使えるAI「ローカルLLM」の進化がすごいよって話
Mac studioのいい感じのが手に入らなくなってる。
ローカルでここまで動くのは胸熱だけど、VRAMの暴力が加速して財布が死ぬ未来しか見えない
ライター氏はPCでの話をしてるけど、Google AI Edge Galleryをスマホにインストールして、Wifiの効かない格安LCCの機内でGemma 4とチャットして「まだまだだな」と優越感に浸れるか試してみるのもオツだと思う。
ローカルLLMは夢が広がるねえ。あとは人間の記憶を完全に蒸留できれば、もうSFの世界だわ
まだまだだという意見も多いけど、実際に自分で確かめてみるか
インターネットつなげられない環境にもエージェント欲しい場面が多い
1年後にはもっと簡単に導入できてさらに高性能になってるはず。だからまだ早い…♠(やらない言い訳)
も少し簡単にならないとなー
やっぱりネットに繋がらないとな〜ってなってくる。でも、安全性を担保しないといけない。難しい。
今後のAI進化のメインストリームかなとは
結構前にローカルで試した感じだとネットで調べてくれない分調べ物系はダメだった気がする。調べ物だけネットで推論はローカルとかできるようになってればいいな。
GPUがなぁ……
GIGAZINEにしてはわかりやすい見出しじゃん、と思ったらGIZMODOだったか
今だに概要がよく分からなくて手を出してない。これもいずれ無料ではなくなる?
「無料・格安で使わせて覇権取ったら有料・値上げ」のパターンが多すぎて、「今の時点で安い事」にあんまり価値を感じないんだよね。逆にこれを公開してる側のメリットはなんだろう。
ローカルLLMにぶち込んだ文章の中の個人情報の部分だけ匿名化させて、それを普通のAIにコピペすればいいとこ取りできないかな。
凄いが同時にまだまだ。メモリの容量、帯域に律速していて劇的にパソコン構成と価格構成が変わらない限りキツイ気がしてならない
31Bは半年~1年前のクローズモデル程度の能力は出てるらしい。GPT5~5.1相当。さすがに普通のゲーミングPCでは厳しく、ウルトラハイエンドかAI用に組んだものが必要だが。今後の進化が待ち遠しい
さすがにグラボ積んでないマシンだとねぇ。ゲームに使わないPCにGPU積むには高すぎるし、メモリで誤魔化すにも高騰しすぎだよ。
redisの作者がdeepseek 4用に書いたインターフェースエンジンが凄くて、SSD上にKV保存させて、MacのGPU最適化のMetalを利用し、128GBのメモリで1Mコンテクスト枠使えるようにしてる → https://github.com/antirez/ds4
メモリとかがバチクソ高くなったらAIやサーバーの企業としてはそれを減らす技術に投資するわな。もちろんリソースを多く使うモデルの優位性は変わらないけど副産物としてプアな環境でも使えるモデルは増えるだろう。
昔と比べたら凄い進化なんだけどクラウド側のAIがもっと凄いのでどうしても霞んでしまう
チャットでは人間が律速段階になるので稼働率が上がらずクラウドと比べてペイしなかったのが、Agentic AIとして使うことで人間がbottleneckではなくなり、稼働率が上がってペイするようになったと言うのも大きいよね。
将来を見越したつもりでNPU機を買ってあった(GPU機は高価なので)のに、LM Studioは非対応なんだよなぁ。
LLMの進化が止まらないな。いつまで進化し続けるんだ
いつか値上げするだろって人、OSSのことを知らないのか? 将来的に有料になっても既に手元にあるものは使い続けられるよ。
AIの地方巡業でしょうか
凄いんだけどクローズドの進化がヤバいしお手頃なので相対的にやっぱ使えないんだよねぇ。1年前にチャット経由でやってた事は一通り出来るんだけど
アンチAIのギズモ執筆陣が気でも違えたか?
チャッピーだけでいいや
賢いローカルAIを使えるGPUをくだしゃい
無料で使うために高価なGPU積んだPCを入手するという本末転倒を起こさないといけなくなるので素直に金払います…
今まさにやろうとしている。Pythonライブラリだけでは誤判定が多く、Ollama+Gemmaで文脈読んで匿名化処理。>"ローカルLLMにぶち込んだ文章の中の個人情報の部分だけ匿名化させて、それを普通のAIにコピペ"
NPU機持て余してるマンは今すぐlemonadeをインストールするんだ。わからんことはclaudeに聞くのだ。LMS使ってるならモデルも共有出来っから
RTX3060/12GBだとGemma4はE4Bまでが現実的ぽい。26B-A4Bも試してみたい。ただ画像生成と違ってなにをさせるかが問題。ローカルで動かすメリットが自分にマッチするかどうか
Ollama でqwen 72B動かしてる。バカ高いパソコンやパーツが必要だよ。特に今は値上がりしてる。
ボクの頭脳もローカルLLMみたいに賢くなればいいのにゃ!
素人(私のような)はゲーミングPCを転用して、LM Studioと適当なモデルをダウンロードして遊ぶのが簡単。VRAMの関係で低サイズ、量子化必須だったりするがね。
ごっついGPU積んだPCの消費電力結構凄くて、起動しっぱなしだと月の電気代でAIサブスク払えるぐらいかかるけど、その辺ちゃんと考慮してるのかな
翻訳タスク程度だとかなり使える。速度や気の利き具合は汎用LLMにはかなわないが、適当にサマリーしたり嘘をつかず実直に仕事をするのが良い。
ローカルで動かすためのPCを買う金額で何ヶ月契約できるかを考えると…
Qwen3.5-9B試してみたけどあんまり満足は行かなかった。gptで言うと3.5よりマシ、4o以下って感じ。まあそれがローカルで動くのはすごいんだけどね
ローカルLLMまともに使える環境代と毎月のクラウドAI代とどっちが良いかで考えると現状クラウドかなって。あくまで現状ではだけど。
ローカルが最前線のお零れなのは昔からなのでまぁ
Gemma4はE4Bを試す
ローカルLLMはロマンがあるけど、それだけ。無料で使うためのコストを考えると普通にサービス契約した方がいい。とか言いつつ64GB積んだMacBook Proを買ってしまった。
32GB の MacBook Air で 31B 動くよ。30 万円。ハイエンドゲーミング PC より全然安い。
低スペック用だとどの程度性能が下がるのかがよくわからないんだよなあ。性能を褒めてる記事って最高の性能用のもので書いてるみたいだし
ROCm版PyTorch・LM StudioでQwen3.6 27BがRadeon RX 9060XT 16GBにギリ乗っかる。まずは検証ということで。
そろそろ、GPUぶん回すよりNPUに計算回るような作りのフロントエンドが欲しい。lemonadeServerはチャットを記憶してくれないので、ページを要約くらいにしか使い道が無い
クラウドAIの利用料がある日10倍になったり、為替レートで日本円が激安になったりしても、ローカルでAI動かす環境があればAgentic CodingさせたりDeepResearchしたり現在やってることを失わずに済む自由がある。
ClaudeやChatGPTの1世代前モデルに近いくらいの精度とパフォーマンス出そうと思ったら、それなりにハイスペックなGPU/NPU搭載機が要るが、企業内で安全に使う目的なら安い投資だろう。
クラウドと比較してるブコメが多いけど別用途なので的外れ。機密情報用/遊び用、クラウドとは併用。月額課金をケチるためのものではない。/ローカルで個人情報処理後にクラウドは定番だが特定不可かはかなり要注意。
大量の英文を翻訳させようと思って色々試したけどPCで動く程度の小さいモデルだとやっぱ全然馬鹿なんだよね。課金してるから結局そっちでやることになった。
PCの値段が上がっているし、個人だとローカルで動作させる動機が乏しい。
まだまだとは思ってもGemma4:31bで、途切れずうごくので、あほなこも永遠と実行できるのはメリット。電気代は千円以上上がった気がするけど、ガチで使ったらどうなるかな。/ローカルで色々試して本番はclaudeやcodex使う。
Agent動かし続けて湯水のようにトークン消費する用途だとローカルLLMに投げる意味も出て来る。普通にチャットで使ってる層にはあんま関係ない(エロ用途除く)
Qwen3.5 9Bぐらいだと無料のGemini以下って感じで結構厳しい
RTX3060 12GBでのQwen3.5-9Bで「まあ悪くはない」位の手応えはある。「すごい」ではない。
メモリがねえ
「自分の管理下でLLMを動かせる」方が魅力
2026年のローカルLLMはQwen3.5やGemma 4で高性能化。Ollama/LM Studio、OpenCode連携でエージェント的なコード生成や画像認識も可能に。無料だが導入難度は高め。
128GBユニファイドメモリー(CPUとGPUが同じメモリーを使う構成)搭載機は50万くらいが最低ライン。今注文できるMacだと90万弱。これくらいまでいけば相当使える