テクノロジー

無料で使えるAI「ローカルLLM」の進化がすごいよって話

1: chess-news 2026/05/10 10:31

Mac studioのいい感じのが手に入らなくなってる。

2: nguyen-oi 2026/05/10 10:36

ローカルでここまで動くのは胸熱だけど、VRAMの暴力が加速して財布が死ぬ未来しか見えない

3: WildWideWeb 2026/05/10 10:58

ライター氏はPCでの話をしてるけど、Google AI Edge Galleryをスマホにインストールして、Wifiの効かない格安LCCの機内でGemma 4とチャットして「まだまだだな」と優越感に浸れるか試してみるのもオツだと思う。

4: mshkh 2026/05/10 11:20

ローカルLLMは夢が広がるねえ。あとは人間の記憶を完全に蒸留できれば、もうSFの世界だわ

5: pecan_fudge 2026/05/10 11:21

まだまだだという意見も多いけど、実際に自分で確かめてみるか

6: six13 2026/05/10 11:25

インターネットつなげられない環境にもエージェント欲しい場面が多い

7: tpxyid45i 2026/05/10 11:58

1年後にはもっと簡単に導入できてさらに高性能になってるはず。だからまだ早い…♠(やらない言い訳)

8: tzk2106 2026/05/10 12:11

も少し簡単にならないとなー

9: nuara 2026/05/10 12:22

やっぱりネットに繋がらないとな〜ってなってくる。でも、安全性を担保しないといけない。難しい。

10: raitu 2026/05/10 12:28

今後のAI進化のメインストリームかなとは

11: nori__3 2026/05/10 12:37

結構前にローカルで試した感じだとネットで調べてくれない分調べ物系はダメだった気がする。調べ物だけネットで推論はローカルとかできるようになってればいいな。

12: seachel 2026/05/10 12:40

GPUがなぁ……

13: hatebu_ai 2026/05/10 13:01

GIGAZINEにしてはわかりやすい見出しじゃん、と思ったらGIZMODOだったか

14: usnydr 2026/05/10 13:05

今だに概要がよく分からなくて手を出してない。これもいずれ無料ではなくなる?

15: rck10 2026/05/10 13:11

「無料・格安で使わせて覇権取ったら有料・値上げ」のパターンが多すぎて、「今の時点で安い事」にあんまり価値を感じないんだよね。逆にこれを公開してる側のメリットはなんだろう。

16: TETSUYA01 2026/05/10 13:14

ローカルLLMにぶち込んだ文章の中の個人情報の部分だけ匿名化させて、それを普通のAIにコピペすればいいとこ取りできないかな。

17: qpci32siekqd 2026/05/10 13:24

凄いが同時にまだまだ。メモリの容量、帯域に律速していて劇的にパソコン構成と価格構成が変わらない限りキツイ気がしてならない

18: srng 2026/05/10 13:34

31Bは半年~1年前のクローズモデル程度の能力は出てるらしい。GPT5~5.1相当。さすがに普通のゲーミングPCでは厳しく、ウルトラハイエンドかAI用に組んだものが必要だが。今後の進化が待ち遠しい

19: cinq_na 2026/05/10 13:40

さすがにグラボ積んでないマシンだとねぇ。ゲームに使わないPCにGPU積むには高すぎるし、メモリで誤魔化すにも高騰しすぎだよ。

20: circled 2026/05/10 13:42

redisの作者がdeepseek 4用に書いたインターフェースエンジンが凄くて、SSD上にKV保存させて、MacのGPU最適化のMetalを利用し、128GBのメモリで1Mコンテクスト枠使えるようにしてる → https://github.com/antirez/ds4

21: setlow 2026/05/10 13:44

メモリとかがバチクソ高くなったらAIやサーバーの企業としてはそれを減らす技術に投資するわな。もちろんリソースを多く使うモデルの優位性は変わらないけど副産物としてプアな環境でも使えるモデルは増えるだろう。

22: harumomo2006 2026/05/10 13:57

昔と比べたら凄い進化なんだけどクラウド側のAIがもっと凄いのでどうしても霞んでしまう

23: andalusia 2026/05/10 14:11

チャットでは人間が律速段階になるので稼働率が上がらずクラウドと比べてペイしなかったのが、Agentic AIとして使うことで人間がbottleneckではなくなり、稼働率が上がってペイするようになったと言うのも大きいよね。

24: shukaido170 2026/05/10 14:20

将来を見越したつもりでNPU機を買ってあった(GPU機は高価なので)のに、LM Studioは非対応なんだよなぁ。

25: short_tanu 2026/05/10 14:24

LLMの進化が止まらないな。いつまで進化し続けるんだ

26: apto117 2026/05/10 14:49

いつか値上げするだろって人、OSSのことを知らないのか? 将来的に有料になっても既に手元にあるものは使い続けられるよ。

27: aox 2026/05/10 14:59

AIの地方巡業でしょうか

28: cloverstudioceo 2026/05/10 15:09

凄いんだけどクローズドの進化がヤバいしお手頃なので相対的にやっぱ使えないんだよねぇ。1年前にチャット経由でやってた事は一通り出来るんだけど

29: anigoka 2026/05/10 15:45

アンチAIのギズモ執筆陣が気でも違えたか?

30: tyosuke2011 2026/05/10 15:54

チャッピーだけでいいや

31: hakushino 2026/05/10 16:06

賢いローカルAIを使えるGPUをくだしゃい

32: Goldenduck 2026/05/10 16:09

無料で使うために高価なGPU積んだPCを入手するという本末転倒を起こさないといけなくなるので素直に金払います…

33: fwb603 2026/05/10 16:22

今まさにやろうとしている。Pythonライブラリだけでは誤判定が多く、Ollama+Gemmaで文脈読んで匿名化処理。>"ローカルLLMにぶち込んだ文章の中の個人情報の部分だけ匿名化させて、それを普通のAIにコピペ"

34: zsehnuy_cohriy 2026/05/10 16:22

NPU機持て余してるマンは今すぐlemonadeをインストールするんだ。わからんことはclaudeに聞くのだ。LMS使ってるならモデルも共有出来っから

35: Imamura 2026/05/10 16:24

RTX3060/12GBだとGemma4はE4Bまでが現実的ぽい。26B-A4Bも試してみたい。ただ画像生成と違ってなにをさせるかが問題。ローカルで動かすメリットが自分にマッチするかどうか

36: Nigitama 2026/05/10 16:44

Ollama でqwen 72B動かしてる。バカ高いパソコンやパーツが必要だよ。特に今は値上がりしてる。

37: FreeCatWork 2026/05/10 17:15

ボクの頭脳もローカルLLMみたいに賢くなればいいのにゃ!

38: radio_qoml 2026/05/10 17:27

素人(私のような)はゲーミングPCを転用して、LM Studioと適当なモデルをダウンロードして遊ぶのが簡単。VRAMの関係で低サイズ、量子化必須だったりするがね。

39: Coolions 2026/05/10 17:32

ごっついGPU積んだPCの消費電力結構凄くて、起動しっぱなしだと月の電気代でAIサブスク払えるぐらいかかるけど、その辺ちゃんと考慮してるのかな

40: electrolite 2026/05/10 17:32

翻訳タスク程度だとかなり使える。速度や気の利き具合は汎用LLMにはかなわないが、適当にサマリーしたり嘘をつかず実直に仕事をするのが良い。

41: n2sz 2026/05/10 17:37

ローカルで動かすためのPCを買う金額で何ヶ月契約できるかを考えると…

42: maninthemiddle 2026/05/10 17:41

Qwen3.5-9B試してみたけどあんまり満足は行かなかった。gptで言うと3.5よりマシ、4o以下って感じ。まあそれがローカルで動くのはすごいんだけどね

43: tonza_dopeness 2026/05/10 18:50

ローカルLLMまともに使える環境代と毎月のクラウドAI代とどっちが良いかで考えると現状クラウドかなって。あくまで現状ではだけど。

44: neogratche 2026/05/10 19:03

ローカルが最前線のお零れなのは昔からなのでまぁ

45: snaflot 2026/05/10 19:07

Gemma4はE4Bを試す

46: rdlf 2026/05/10 19:32

ローカルLLMはロマンがあるけど、それだけ。無料で使うためのコストを考えると普通にサービス契約した方がいい。とか言いつつ64GB積んだMacBook Proを買ってしまった。

47: otchy210 2026/05/10 19:40

32GB の MacBook Air で 31B 動くよ。30 万円。ハイエンドゲーミング PC より全然安い。

48: colonoe 2026/05/10 20:42

低スペック用だとどの程度性能が下がるのかがよくわからないんだよなあ。性能を褒めてる記事って最高の性能用のもので書いてるみたいだし

49: HACHI-BAY 2026/05/10 20:47

ROCm版PyTorch・LM StudioでQwen3.6 27BがRadeon RX 9060XT 16GBにギリ乗っかる。まずは検証ということで。

50: shoot_c_na 2026/05/10 20:47

そろそろ、GPUぶん回すよりNPUに計算回るような作りのフロントエンドが欲しい。lemonadeServerはチャットを記憶してくれないので、ページを要約くらいにしか使い道が無い

51: jun_cham 2026/05/10 20:55

クラウドAIの利用料がある日10倍になったり、為替レートで日本円が激安になったりしても、ローカルでAI動かす環境があればAgentic CodingさせたりDeepResearchしたり現在やってることを失わずに済む自由がある。

52: PerolineLuv 2026/05/10 21:19

ClaudeやChatGPTの1世代前モデルに近いくらいの精度とパフォーマンス出そうと思ったら、それなりにハイスペックなGPU/NPU搭載機が要るが、企業内で安全に使う目的なら安い投資だろう。

53: hatact 2026/05/10 21:23

クラウドと比較してるブコメが多いけど別用途なので的外れ。機密情報用/遊び用、クラウドとは併用。月額課金をケチるためのものではない。/ローカルで個人情報処理後にクラウドは定番だが特定不可かはかなり要注意。

54: roirrawedoc 2026/05/10 21:24

大量の英文を翻訳させようと思って色々試したけどPCで動く程度の小さいモデルだとやっぱ全然馬鹿なんだよね。課金してるから結局そっちでやることになった。

55: LM-7 2026/05/10 21:35

PCの値段が上がっているし、個人だとローカルで動作させる動機が乏しい。

56: vesikukka 2026/05/10 22:01

まだまだとは思ってもGemma4:31bで、途切れずうごくので、あほなこも永遠と実行できるのはメリット。電気代は千円以上上がった気がするけど、ガチで使ったらどうなるかな。/ローカルで色々試して本番はclaudeやcodex使う。

57: bipg 2026/05/10 22:07

Agent動かし続けて湯水のようにトークン消費する用途だとローカルLLMに投げる意味も出て来る。普通にチャットで使ってる層にはあんま関係ない(エロ用途除く)

58: tester24 2026/05/10 22:10

Qwen3.5 9Bぐらいだと無料のGemini以下って感じで結構厳しい

59: rgfx 2026/05/10 23:25

RTX3060 12GBでのQwen3.5-9Bで「まあ悪くはない」位の手応えはある。「すごい」ではない。

60: torish 2026/05/11 01:18

メモリがねえ

61: adliblogger 2026/05/11 01:41

「自分の管理下でLLMを動かせる」方が魅力

62: misshiki 2026/05/11 17:06

2026年のローカルLLMはQwen3.5やGemma 4で高性能化。Ollama/LM Studio、OpenCode連携でエージェント的なコード生成や画像認識も可能に。無料だが導入難度は高め。

63: YaSuYuKi 2026/05/12 10:07

128GBユニファイドメモリー(CPUとGPUが同じメモリーを使う構成)搭載機は50万くらいが最低ライン。今注文できるMacだと90万弱。これくらいまでいけば相当使える