ほんとにそのPCで大丈夫か?(・ω・)
“メモリが16GBほどあれば動作します。”これは本当に直近でMacBookを買った人にしか適用されない。
“Cursorはサブスクして使いますが、課金していても短時間に大量の処理をしようとすると処理が極端に遅くなったりします。そうなったらローカルLLMに切り替える、で問題なく作業を継続できるようになりました。”
GPUメモリは使わないのかな。ちょっと試したいな
スマホで動くし、まぁ翻訳なら使える感じ。ただ過大な期待は禁物。文意を取る翻訳位/GPUメモリ多め欲しいが、こういうの見ると正直買い時分からん
今は一部のMacでしか動かないし性能も今一つだと思うけど来年Copilot PCの比較的性能の良いモデルが出るころには性能も上がってみんなローカルLLMでコストを掛けずにコーディングするようになる。
「LM StudioはChatGPTに似たインターフェースを備えており」そこまで取っつきやすくはない感
aniちゃんとかなぜかiOS先行だしローカルだとApple機種のが良いのかな
去年初頭までは全然ダメだったのだけど、春くらいからollamaなどがmetalに対応して情勢が一変した。
Macはそこそこswapが早いから気づかないかもだけど、完全にメモリに乗り切るモデル以外は高速でSSDを読み書きするのでSSDの寿命を超高速で縮めているよ
スペックの割に割高なのが裏目に出てるよな
MacBookでAIだと?ボクにもできるかにゃ?膝の上で動かすにゃ!
月額3000円をケチるために高価なMacBookを買うのか?って感じだけど次のMacBook Proは64GBくらいのスペックにしようと思っている。いま使っている16GBのM1 MacBook Proだと使えるモデルが格好少ない。
この領域でのMacBookの強みはメモリドカ積みの場合で、16GB程度のものならまあ現行のVRAM16GBのGPUあればできるね
ここいらはApple Intelligenceがいい感じにローカルでやってくれる事は期待している。とは言えクラウドのAIが優秀すぎてなかなか使いどころは限られるよね。
複雑なプログラムも書けるようになったら嬉しいね
“Googleが一般公開したローカルLLM「Gemma 3n E4B」は、メモリ16GBで動作。LM Studioですぐ試せる。ハイエンドではないが実用できる水準。翻訳は意外とローカルでこなせる。コード生成もいける。英語ニュースをすべて翻訳”
普通のアプリインストールする感じで実装できるんだな。MチップのMacなら動くかな https://note.com/mudailog/n/n0efabc8fb3fc
MBAで動くとな。ほー
非同期にガンガン使えるなら、ウェブサービスに使えるのかな
そこそこ動くローカルLLMいいなぁ 仕事でも使えそう
iphone16だと35tops出るからな。軽い処理をAIにやってもらうならアリなんだろう
オンラインと使い分けるローカルの役割としては、「ずっとパソコン上の作業内容を見ていてくれる」「ローカルデータをすべて把握している」くらい期待しているので、その点ではMicrosoftが先行していると感じる。
API利用より割高だったとしても使い放題でないと見えない世界というのはありそう。持ち家か賃貸か、マイカーかタクシーか見たいな。
「GoogleがローカルLLM「Gemma 3n E4B」を一般公開しました。このAIは、2025年基準で標準的なチップを搭載していて、メモリが16GBほどあれば動作します。」
現時点での、サブスクサービスとの棲み分けのバランスなど、参考になった。
MacBookで無料AI。「ローカルLLM」がいい感じに進化してます
ほんとにそのPCで大丈夫か?(・ω・)
“メモリが16GBほどあれば動作します。”これは本当に直近でMacBookを買った人にしか適用されない。
“Cursorはサブスクして使いますが、課金していても短時間に大量の処理をしようとすると処理が極端に遅くなったりします。そうなったらローカルLLMに切り替える、で問題なく作業を継続できるようになりました。”
GPUメモリは使わないのかな。ちょっと試したいな
スマホで動くし、まぁ翻訳なら使える感じ。ただ過大な期待は禁物。文意を取る翻訳位/GPUメモリ多め欲しいが、こういうの見ると正直買い時分からん
今は一部のMacでしか動かないし性能も今一つだと思うけど来年Copilot PCの比較的性能の良いモデルが出るころには性能も上がってみんなローカルLLMでコストを掛けずにコーディングするようになる。
「LM StudioはChatGPTに似たインターフェースを備えており」そこまで取っつきやすくはない感
aniちゃんとかなぜかiOS先行だしローカルだとApple機種のが良いのかな
去年初頭までは全然ダメだったのだけど、春くらいからollamaなどがmetalに対応して情勢が一変した。
Macはそこそこswapが早いから気づかないかもだけど、完全にメモリに乗り切るモデル以外は高速でSSDを読み書きするのでSSDの寿命を超高速で縮めているよ
スペックの割に割高なのが裏目に出てるよな
MacBookでAIだと?ボクにもできるかにゃ?膝の上で動かすにゃ!
月額3000円をケチるために高価なMacBookを買うのか?って感じだけど次のMacBook Proは64GBくらいのスペックにしようと思っている。いま使っている16GBのM1 MacBook Proだと使えるモデルが格好少ない。
この領域でのMacBookの強みはメモリドカ積みの場合で、16GB程度のものならまあ現行のVRAM16GBのGPUあればできるね
ここいらはApple Intelligenceがいい感じにローカルでやってくれる事は期待している。とは言えクラウドのAIが優秀すぎてなかなか使いどころは限られるよね。
複雑なプログラムも書けるようになったら嬉しいね
“Googleが一般公開したローカルLLM「Gemma 3n E4B」は、メモリ16GBで動作。LM Studioですぐ試せる。ハイエンドではないが実用できる水準。翻訳は意外とローカルでこなせる。コード生成もいける。英語ニュースをすべて翻訳”
普通のアプリインストールする感じで実装できるんだな。MチップのMacなら動くかな https://note.com/mudailog/n/n0efabc8fb3fc
MBAで動くとな。ほー
非同期にガンガン使えるなら、ウェブサービスに使えるのかな
そこそこ動くローカルLLMいいなぁ 仕事でも使えそう
iphone16だと35tops出るからな。軽い処理をAIにやってもらうならアリなんだろう
オンラインと使い分けるローカルの役割としては、「ずっとパソコン上の作業内容を見ていてくれる」「ローカルデータをすべて把握している」くらい期待しているので、その点ではMicrosoftが先行していると感じる。
API利用より割高だったとしても使い放題でないと見えない世界というのはありそう。持ち家か賃貸か、マイカーかタクシーか見たいな。
「GoogleがローカルLLM「Gemma 3n E4B」を一般公開しました。このAIは、2025年基準で標準的なチップを搭載していて、メモリが16GBほどあれば動作します。」
現時点での、サブスクサービスとの棲み分けのバランスなど、参考になった。