"使用しているのは、8GBのRTX 4060、16GBのLPDDR5Xメモリ、Intel Core Ultra 7を搭載したラップトップPC" そんなので実用になるとは...
VRAM8GBで戦える時代が来たか。サブスク地獄から抜けてローカル環境を育てるのが結局一番コスパ良さそう。プライバシー面でも安心感あるし
130カ国175000が絶賛ハッキング中のOllamaを今入れるのは悪手中の悪手 https://qiita.com/ohkitashigeto/items/f66918b0a5dc59db9017
ローカルのリソース消費激しくて使うの躊躇うのだよなー。
昔の記事じゃなくて今の記事だよね…Qwen 2.5 Coder 32Bで出せるコードの品質と速度で良いのか…。gpt-5.2-codexとかopus4.5と戦えるとは思えないし、ローカルLLMに新しいモデルが戦える日が来るとは中々思えないのだけど
一年前のredditに『まだ使えるのか?』って質問あるけど大丈夫なのか。 プログラミングの素養が高ければ関係ないのかな?
PV稼ぎのAI記事。読まなくてよい。Perplexityの代替と言いつつローカルLLMではコード生成の話で意味不明。実行環境もGPT4が比較対象でVRAM8GBの4060で32Bモデルが実用レベルで動くと言いうでたらめな内容のSEOこたつ記事。
AI「いいかい学生さん、月額20ドルのAIをいつでも使えるくらいになりなよ。 それが、人間えら過ぎもしない貧乏過ぎもしない、ちょうどいいくらいってとこなんだ。」
どうでもいい記事なので(?)どうでもいい話するとRTX4060 Mobileは素のRTX4060に少し劣るがほぼ同格 https://gamingpcs.jp/hikaku-gpu/geforce-rtx4060m/ と言える。一方、4070Moblieは4060Ti、4080Mobileは4070と同格(か劣る)仕様性能である(どうでもいい
"Qwen 2.5 Coder 32B" "4ビット量子化" "私の8GBのVRAM内に余裕で収まり" 実際にはモデル分だけでも約20GBが必要。他にもめちゃくちゃな記述がいろいろと…
HACKって言葉が名前に含まれるサイトを信用してはいけない。
8GBのRTX 4060、Qwen 2.5 Coder 32B、4ビット量子化、毎秒25〜30トークンの速度で生成、128kトークンのコンテキストウィンドウ / これ無理では?どこかに勘違いがあると思う。
4060すら買えねえ
いつのまにかライフハッカーのレベル激下がりしててびっくり。金まわり厳しくてなりふり構ってられないのかな。
MakeUseOfの記事からのただの翻訳だね。それと32Bじゃなくて3Bだと思う。(7BすらVRAM 8GBには厳しい)大元の記事のコメントでも色々突っ込まれてる
長期的なセキュリティを考えるとローカルLLMの発展を願わずにはいられないがしかし
"使用しているのは、8GBのRTX 4060、16GBのLPDDR5Xメモリ、Intel Core Ultra 7を搭載したラップトップPC" お、おう
Ollama 17万台が(あぶねーすね)だそうな https://qiita.com/ohkitashigeto/items/f66918b0a5dc59db9017
「130カ国175000が絶賛ハッキング中のOllamaを今入れるのは悪手中の悪手」←それバカがわざわざ余計な設定してるせいだよバカは黙っとけ。この記事のツッコミ所はそこじゃねえよ。
このスペックで30Bや128kトークンコンテキストが動くはずないとか突っ込みどころだらけだが、自分の場合絶対的な知性が最重要なので、ローカルで何とかするならkimi2.5thinkingでも動かさないと足りない
Published May 16, 2025,
うーん、記事中のローカルLLMを使うべき理由がプライバシー意外納得いかない。他は全部オンラインの方が良くないか?
へー
“Perplexity”
月額2500円のAI→ローカルAIに変えたら、私の需要にマッチしました | ライフハッカー・ジャパン
"使用しているのは、8GBのRTX 4060、16GBのLPDDR5Xメモリ、Intel Core Ultra 7を搭載したラップトップPC" そんなので実用になるとは...
VRAM8GBで戦える時代が来たか。サブスク地獄から抜けてローカル環境を育てるのが結局一番コスパ良さそう。プライバシー面でも安心感あるし
130カ国175000が絶賛ハッキング中のOllamaを今入れるのは悪手中の悪手 https://qiita.com/ohkitashigeto/items/f66918b0a5dc59db9017
ローカルのリソース消費激しくて使うの躊躇うのだよなー。
昔の記事じゃなくて今の記事だよね…Qwen 2.5 Coder 32Bで出せるコードの品質と速度で良いのか…。gpt-5.2-codexとかopus4.5と戦えるとは思えないし、ローカルLLMに新しいモデルが戦える日が来るとは中々思えないのだけど
一年前のredditに『まだ使えるのか?』って質問あるけど大丈夫なのか。 プログラミングの素養が高ければ関係ないのかな?
PV稼ぎのAI記事。読まなくてよい。Perplexityの代替と言いつつローカルLLMではコード生成の話で意味不明。実行環境もGPT4が比較対象でVRAM8GBの4060で32Bモデルが実用レベルで動くと言いうでたらめな内容のSEOこたつ記事。
AI「いいかい学生さん、月額20ドルのAIをいつでも使えるくらいになりなよ。 それが、人間えら過ぎもしない貧乏過ぎもしない、ちょうどいいくらいってとこなんだ。」
どうでもいい記事なので(?)どうでもいい話するとRTX4060 Mobileは素のRTX4060に少し劣るがほぼ同格 https://gamingpcs.jp/hikaku-gpu/geforce-rtx4060m/ と言える。一方、4070Moblieは4060Ti、4080Mobileは4070と同格(か劣る)仕様性能である(どうでもいい
"Qwen 2.5 Coder 32B" "4ビット量子化" "私の8GBのVRAM内に余裕で収まり" 実際にはモデル分だけでも約20GBが必要。他にもめちゃくちゃな記述がいろいろと…
HACKって言葉が名前に含まれるサイトを信用してはいけない。
8GBのRTX 4060、Qwen 2.5 Coder 32B、4ビット量子化、毎秒25〜30トークンの速度で生成、128kトークンのコンテキストウィンドウ / これ無理では?どこかに勘違いがあると思う。
4060すら買えねえ
いつのまにかライフハッカーのレベル激下がりしててびっくり。金まわり厳しくてなりふり構ってられないのかな。
MakeUseOfの記事からのただの翻訳だね。それと32Bじゃなくて3Bだと思う。(7BすらVRAM 8GBには厳しい)大元の記事のコメントでも色々突っ込まれてる
長期的なセキュリティを考えるとローカルLLMの発展を願わずにはいられないがしかし
"使用しているのは、8GBのRTX 4060、16GBのLPDDR5Xメモリ、Intel Core Ultra 7を搭載したラップトップPC" お、おう
Ollama 17万台が(あぶねーすね)だそうな https://qiita.com/ohkitashigeto/items/f66918b0a5dc59db9017
「130カ国175000が絶賛ハッキング中のOllamaを今入れるのは悪手中の悪手」←それバカがわざわざ余計な設定してるせいだよバカは黙っとけ。この記事のツッコミ所はそこじゃねえよ。
このスペックで30Bや128kトークンコンテキストが動くはずないとか突っ込みどころだらけだが、自分の場合絶対的な知性が最重要なので、ローカルで何とかするならkimi2.5thinkingでも動かさないと足りない
Published May 16, 2025,
うーん、記事中のローカルLLMを使うべき理由がプライバシー意外納得いかない。他は全部オンラインの方が良くないか?
へー
“Perplexity”