テクノロジー

MacBookで無料AI。「ローカルLLM」がいい感じに進化してます

1: toaruR 2025/07/21 12:15

ほんとにそのPCで大丈夫か?(・ω・)

2: osugi3y 2025/07/21 13:08

“メモリが16GBほどあれば動作します。”これは本当に直近でMacBookを買った人にしか適用されない。

3: shodai 2025/07/21 13:08

“Cursorはサブスクして使いますが、課金していても短時間に大量の処理をしようとすると処理が極端に遅くなったりします。そうなったらローカルLLMに切り替える、で問題なく作業を継続できるようになりました。”

4: inulab 2025/07/21 13:52

GPUメモリは使わないのかな。ちょっと試したいな

5: sotonohitokun 2025/07/21 15:34

スマホで動くし、まぁ翻訳なら使える感じ。ただ過大な期待は禁物。文意を取る翻訳位/GPUメモリ多め欲しいが、こういうの見ると正直買い時分からん

6: OkadaHiroshi 2025/07/21 15:38

今は一部のMacでしか動かないし性能も今一つだと思うけど来年Copilot PCの比較的性能の良いモデルが出るころには性能も上がってみんなローカルLLMでコストを掛けずにコーディングするようになる。

7: fashi 2025/07/21 15:56

「LM StudioはChatGPTに似たインターフェースを備えており」そこまで取っつきやすくはない感

8: pomepomegusa 2025/07/21 16:03

aniちゃんとかなぜかiOS先行だしローカルだとApple機種のが良いのかな

9: zgmf-x20a 2025/07/21 16:11

去年初頭までは全然ダメだったのだけど、春くらいからollamaなどがmetalに対応して情勢が一変した。

10: yau 2025/07/21 16:32

Macはそこそこswapが早いから気づかないかもだけど、完全にメモリに乗り切るモデル以外は高速でSSDを読み書きするのでSSDの寿命を超高速で縮めているよ

11: pochi-taro00 2025/07/21 16:45

スペックの割に割高なのが裏目に出てるよな

12: FreeCatWork 2025/07/21 17:20

MacBookでAIだと?ボクにもできるかにゃ?膝の上で動かすにゃ!

13: rdlf 2025/07/21 17:51

月額3000円をケチるために高価なMacBookを買うのか?って感じだけど次のMacBook Proは64GBくらいのスペックにしようと思っている。いま使っている16GBのM1 MacBook Proだと使えるモデルが格好少ない。

14: srng 2025/07/21 18:01

この領域でのMacBookの強みはメモリドカ積みの場合で、16GB程度のものならまあ現行のVRAM16GBのGPUあればできるね

15: mobile_neko 2025/07/21 20:12

ここいらはApple Intelligenceがいい感じにローカルでやってくれる事は期待している。とは言えクラウドのAIが優秀すぎてなかなか使いどころは限られるよね。

16: cloverstudioceo 2025/07/21 20:32

複雑なプログラムも書けるようになったら嬉しいね

17: yarumato 2025/07/21 20:50

“Googleが一般公開したローカルLLM「Gemma 3n E4B」は、メモリ16GBで動作。LM Studioですぐ試せる。ハイエンドではないが実用できる水準。翻訳は意外とローカルでこなせる。コード生成もいける。英語ニュースをすべて翻訳”

18: htamaaki 2025/07/21 20:54

普通のアプリインストールする感じで実装できるんだな。MチップのMacなら動くかな https://note.com/mudailog/n/n0efabc8fb3fc

19: at_yasu 2025/07/21 20:58

MBAで動くとな。ほー

20: zou_crypto 2025/07/21 21:21

非同期にガンガン使えるなら、ウェブサービスに使えるのかな

21: kanopen 2025/07/21 21:33

そこそこ動くローカルLLMいいなぁ 仕事でも使えそう

22: t1mvverr 2025/07/21 21:42

iphone16だと35tops出るからな。軽い処理をAIにやってもらうならアリなんだろう

23: Knoa 2025/07/21 21:56

オンラインと使い分けるローカルの役割としては、「ずっとパソコン上の作業内容を見ていてくれる」「ローカルデータをすべて把握している」くらい期待しているので、その点ではMicrosoftが先行していると感じる。

24: toyoshi 2025/07/21 22:04

API利用より割高だったとしても使い放題でないと見えない世界というのはありそう。持ち家か賃貸か、マイカーかタクシーか見たいな。

25: nilab 2025/07/21 22:12

「GoogleがローカルLLM「Gemma 3n E4B」を一般公開しました。このAIは、2025年基準で標準的なチップを搭載していて、メモリが16GBほどあれば動作します。」

26: cielonlon 2025/07/21 22:16

現時点での、サブスクサービスとの棲み分けのバランスなど、参考になった。