中島氏の意見に禿同(死語)する。自分のよわよわ環境(Ryzen9 HX5900/32GB/GPU無)で動かしても同様の傾向。あと単に日本語でやり取りするぐらいならSoftbankのsarashina2.2-3Bをおすすめする。あれは結構賢い。
こういうのって、たまたま知ってた知識かどうかに依存しないの?
PC の画面を見る権限、キーボードとマウスを操作する権限を AI に与えて音声入力で何でもやらせる時代の到来を待っているのだが、クラウド AI でそれをやるのは怖すぎるのでローカル AI の進歩に凄い期待している。
「ヤバいかも」なんて煽る文章ばかりになってAI登場前より劣化してる
この人は、ウェブ2.0おじさんの後は、AIおじさんになったのか
手を出すつもりは当面ないのだけど、オンプレ必須という要件が来た場合に、どっかのタイミングで備えないとよね。AI開発の総合力も考えるとGoogle/Gemma3の一択かな
その1問だけでそんな判断していいのかしら
中島聡って人、寡聞にして知らなかったので中嶋悟かと思って一瞬焦ったわ。
"本記事のタイトル・見出しはMAG2NEWS編集部によるものです" 一問だけ試してガチテストと言い,そろそろヤバイと煽っているのは掲載媒体。Phi4とGemma3が優秀なのは自分も試して感じた。ローカルLMはしばらくこれでいい
PC内のみで動かせる小規模言語モデルでは、現状MSのPhi-4とGoogleのGemma3がおすすめという話。現行、GPT4以上の期待が寄せられる状況とのこと
SLMがもう少しちっこくなったら手をだしてもいいかも
「賢い」と「物知り」を見分けるのは難しいわな。
AIとチャットするのは時間の無駄でユーザの操作や行動を自動的にAIに送るべきだと思ってるので最後の文章が切れてるとこに同意。例えばSlackやTeamsで誰かがバグ報告送ってきたらエラー内容とコードをAIに解析させるとか
元オリ監督はAIにも造詣が深いのか…と空目したわ/マジかweb3にも超伝導(あのLK-99で草)にも食指を出してたのね…多才だなあ()
幻魔は良いよ。プロンプトをちゃんと書けてAPI沢山使いたい人はおうちサーバー立てもいいレベル。
“中島聡”…一瞬イニシャルDの作者の義理の息子の元プロ野球選手が現役復帰のプロテスト受けたんかと思ってしまった。
参考になる。phi-4試してなかった。
おすすめってだけじゃん
下品なタイトルだなぁ
“中国共産党の意向が反映されたモデルであるため、台湾問題、天安門事件などに関しては、中立的とは言い難い返事をするのが欠点です。”Deepseekウケる
ノートPC1つで世界のどこでも開発できていたものが、ローカルLLMを実行するための強力なハードウェアを近くに置く必要が出てきて簡単に離れられなくなる。この状態はいつまで続くかな。
ちなオリ炙り出しタイトル
これからは米国産LLMは「共和党の意向が反映されたモデルであるため、議会襲撃などに関しては中立的とは言い難い返事」を返してくるんだろか。
『顧客からの注文が入るたびに、オペレーターのキーストローク1つごと、カメラが捉える映像の1フレームごとに推論を走らせることが可能になり、これまでの従量課金を前提としたものとは根本的に異なる設計の…』
Phi-4全然話題にならないが14Bながらけっこう賢い
後で読んで試す。しかしQwQ32BはR1の671Bと同等って謳ってなかったっけ?/ 試した。QwQ 32Bの方が phi 4 14Bよりだいぶ賢い気がする。 https://kei-1010.hatenablog.com/entry/2025/03/19/224952
どちらもハルシネーションが多い印象。実務だとdeepseek系のほうが良い気がする。
メルマガではヤバいかもと書いてなかったので、タイトルつけたのははmagmag側か。この人はNFT思いっきり開発して幻滅したので今はAI開発に行ってる。新しい技術をこれくらい楽しんでいきたい
Appleが今まさに試みてるけど早くスマホに載って実用的なレベルになるといいよね。スケジュールやメール等のプライバシー情報はサーバに渡したくないので、ローカルAIで安全に使えると滅茶苦茶便利になると思う。
これらのメモリのPCを買えるかどうかで変わってくるから、さらに貧富の差が開きそう。会社ではクラウドのAIと契約してるから、これはあくまでも個人用だろうな
ガチでテスト=質問1個w。頭悪そうなコピーを書いたまぐまぐニュースのライターをローカルAIで置き換えたい
現時点ではrinnaのqwq-bakenekoが最強だと思う。
“どれが一番賢い?オープンソースな言語モデルの実力をテスト...現時点では、MicrosoftのPhi-4とGoogleのGemma3がオススメ。色々と質問していると、9.1GB、17GBというメモリの中に、莫大な知識が詰まっていることに本当に感心”
タイトルはクソ以下だが、まあ言いたいことはわかる。でもそんなに読む価値ないよ、ブコメだけ読んどきゃいいレベル
やばいか...
粋な終わりかただなと思ったら、有料部分が読めなくなってるだけだった
内容はともかく【ガチで検索とかいうのやめようぜ。いくら内容が良くても、この言葉あるだけで記事の信頼度がダダ下がり/【ガチで】ってのがアホの子の言葉とは感じないのだろうか?
1か所だけGemma3がGamma3に誤記ってる。
元F1ドライバーかと思ったら字が違ったわ
このおじさん、一昨年はWeb3おじさん、去年から超伝導おじさんだったから、話半分で聞いたほうがいいよ。
モンハンやりたくてrtx4060が45するんだよなぁー。 パソコンまた値上がりするのか。
すごいニャ!賢いAIの話、面白いにゃ!ボクも賢くなりたいにゃ!
gemma3やっぱり良い
https://support.google.com/phoneapp/thread/332095458?hl=en&sjid=12676974255243200554-NC
「どれが優秀」とかそういうレベルで考えているならば、それは遅れている気がする。
つまりプロの驚き屋ってこと?
これはいいね。月に200ドルをOpenAIに払うのはつらいので
https://support.google.com/phoneapp/thread/332091545?hl=en&sjid=5673383954529720778-NC
スモールLLMと言う言葉遣いが面白い
https://support.google.com/phoneapp/thread/332110800?hl=en&sjid=2393747207196866738-NC
Gemma3凄いよな。LMstudioなら超簡単に導入できるし皆試して欲しい。ただ弱点はハルシネーションが凄い事だけどそれを含めてGPT4の出はじめぐらいの性能の体感に近いしこの小さなモデルでそれが出せるのは驚異
ホリエモンと与太話してるおっちゃん
中島聡さん、最近は投資の本とかも出してて、賢いから幅広くできてるのか、なんか迷走してるのか気になってる。
gemma3 27Bよりphi4 14BのほうがMMLUスコアは高いです
ローカルAIは本当にどんどん進化していてすごいよね。回数制限とか料金とか気にせずガンガンあらゆるタイミングで高性能のAIが使えるようになりそうで楽しみ。
ローカルAIを頑張るよりもパブリックなAIを二つに契約して対話させてたほうがコスパがよい。
質問一個で優劣を示されても頭痛が痛いが、AIがパラダイムシフトをおこしつつあるのは事実。Webほど万人に刺さるわけでは無いだろうけど、頭使う仕事してる人は戦々恐々して、使いこなさないとまずい。
やはり4090か5090欲しいなあ
過去のメルマガ読み返しても超伝導に傾倒なんてしてなかった(時事ニュースとして2回紹介してただけ)。はてブコメントなんて話半分か話1/4で読んどいたほうがいい。
ガチテロリストかと思った、中身は読んでない
コーディングエージェント用途だとまだクソの役にも立たないけど、Copilot的支援だったらこのへんのローカルAIでももう実用的なので、情報漏洩せず無限に投げられるツールとして1台社内で運用を考えてもいいとは思う
中島聡が走らせることができないというDeepSeekの一番大きなモデルはパラメータ数671b、メモリ1,342GBと桁違いで、所有のMacBook Proは40万円以上と思われる
"エンタープライズ市場においては、クラウド上のAIサービスではなく、パソコンもしくは社内のAIサーバーにオープンソースなSLMを走らせるのが主流になると私は見ています。 一番分かりやすい理由は、社外秘の"
手元でgemma3を試したところ同じ質問(本文からのコピペ)に対して、同じ27bでも、Q8は正解、Q3_K_Lは不正解(ただしわからないと答えたのでハレーションではない)だったのが興味深い
中島聡がガチでテスト、「今一番賢いローカルAI」のすごい実力。Phi-4やGemma3を知らない人、そろそろヤバいかもです - まぐまぐニュース!
中島氏の意見に禿同(死語)する。自分のよわよわ環境(Ryzen9 HX5900/32GB/GPU無)で動かしても同様の傾向。あと単に日本語でやり取りするぐらいならSoftbankのsarashina2.2-3Bをおすすめする。あれは結構賢い。
こういうのって、たまたま知ってた知識かどうかに依存しないの?
PC の画面を見る権限、キーボードとマウスを操作する権限を AI に与えて音声入力で何でもやらせる時代の到来を待っているのだが、クラウド AI でそれをやるのは怖すぎるのでローカル AI の進歩に凄い期待している。
「ヤバいかも」なんて煽る文章ばかりになってAI登場前より劣化してる
この人は、ウェブ2.0おじさんの後は、AIおじさんになったのか
手を出すつもりは当面ないのだけど、オンプレ必須という要件が来た場合に、どっかのタイミングで備えないとよね。AI開発の総合力も考えるとGoogle/Gemma3の一択かな
その1問だけでそんな判断していいのかしら
中島聡って人、寡聞にして知らなかったので中嶋悟かと思って一瞬焦ったわ。
"本記事のタイトル・見出しはMAG2NEWS編集部によるものです" 一問だけ試してガチテストと言い,そろそろヤバイと煽っているのは掲載媒体。Phi4とGemma3が優秀なのは自分も試して感じた。ローカルLMはしばらくこれでいい
PC内のみで動かせる小規模言語モデルでは、現状MSのPhi-4とGoogleのGemma3がおすすめという話。現行、GPT4以上の期待が寄せられる状況とのこと
SLMがもう少しちっこくなったら手をだしてもいいかも
「賢い」と「物知り」を見分けるのは難しいわな。
AIとチャットするのは時間の無駄でユーザの操作や行動を自動的にAIに送るべきだと思ってるので最後の文章が切れてるとこに同意。例えばSlackやTeamsで誰かがバグ報告送ってきたらエラー内容とコードをAIに解析させるとか
元オリ監督はAIにも造詣が深いのか…と空目したわ/マジかweb3にも超伝導(あのLK-99で草)にも食指を出してたのね…多才だなあ()
幻魔は良いよ。プロンプトをちゃんと書けてAPI沢山使いたい人はおうちサーバー立てもいいレベル。
“中島聡”…一瞬イニシャルDの作者の義理の息子の元プロ野球選手が現役復帰のプロテスト受けたんかと思ってしまった。
参考になる。phi-4試してなかった。
おすすめってだけじゃん
下品なタイトルだなぁ
“中国共産党の意向が反映されたモデルであるため、台湾問題、天安門事件などに関しては、中立的とは言い難い返事をするのが欠点です。”Deepseekウケる
ノートPC1つで世界のどこでも開発できていたものが、ローカルLLMを実行するための強力なハードウェアを近くに置く必要が出てきて簡単に離れられなくなる。この状態はいつまで続くかな。
ちなオリ炙り出しタイトル
これからは米国産LLMは「共和党の意向が反映されたモデルであるため、議会襲撃などに関しては中立的とは言い難い返事」を返してくるんだろか。
『顧客からの注文が入るたびに、オペレーターのキーストローク1つごと、カメラが捉える映像の1フレームごとに推論を走らせることが可能になり、これまでの従量課金を前提としたものとは根本的に異なる設計の…』
Phi-4全然話題にならないが14Bながらけっこう賢い
後で読んで試す。しかしQwQ32BはR1の671Bと同等って謳ってなかったっけ?/ 試した。QwQ 32Bの方が phi 4 14Bよりだいぶ賢い気がする。 https://kei-1010.hatenablog.com/entry/2025/03/19/224952
どちらもハルシネーションが多い印象。実務だとdeepseek系のほうが良い気がする。
メルマガではヤバいかもと書いてなかったので、タイトルつけたのははmagmag側か。この人はNFT思いっきり開発して幻滅したので今はAI開発に行ってる。新しい技術をこれくらい楽しんでいきたい
Appleが今まさに試みてるけど早くスマホに載って実用的なレベルになるといいよね。スケジュールやメール等のプライバシー情報はサーバに渡したくないので、ローカルAIで安全に使えると滅茶苦茶便利になると思う。
これらのメモリのPCを買えるかどうかで変わってくるから、さらに貧富の差が開きそう。会社ではクラウドのAIと契約してるから、これはあくまでも個人用だろうな
ガチでテスト=質問1個w。頭悪そうなコピーを書いたまぐまぐニュースのライターをローカルAIで置き換えたい
現時点ではrinnaのqwq-bakenekoが最強だと思う。
“どれが一番賢い?オープンソースな言語モデルの実力をテスト...現時点では、MicrosoftのPhi-4とGoogleのGemma3がオススメ。色々と質問していると、9.1GB、17GBというメモリの中に、莫大な知識が詰まっていることに本当に感心”
タイトルはクソ以下だが、まあ言いたいことはわかる。でもそんなに読む価値ないよ、ブコメだけ読んどきゃいいレベル
やばいか...
粋な終わりかただなと思ったら、有料部分が読めなくなってるだけだった
内容はともかく【ガチで検索とかいうのやめようぜ。いくら内容が良くても、この言葉あるだけで記事の信頼度がダダ下がり/【ガチで】ってのがアホの子の言葉とは感じないのだろうか?
1か所だけGemma3がGamma3に誤記ってる。
元F1ドライバーかと思ったら字が違ったわ
このおじさん、一昨年はWeb3おじさん、去年から超伝導おじさんだったから、話半分で聞いたほうがいいよ。
モンハンやりたくてrtx4060が45するんだよなぁー。 パソコンまた値上がりするのか。
すごいニャ!賢いAIの話、面白いにゃ!ボクも賢くなりたいにゃ!
gemma3やっぱり良い
https://support.google.com/phoneapp/thread/332095458?hl=en&sjid=12676974255243200554-NC
「どれが優秀」とかそういうレベルで考えているならば、それは遅れている気がする。
つまりプロの驚き屋ってこと?
これはいいね。月に200ドルをOpenAIに払うのはつらいので
https://support.google.com/phoneapp/thread/332091545?hl=en&sjid=5673383954529720778-NC
スモールLLMと言う言葉遣いが面白い
https://support.google.com/phoneapp/thread/332110800?hl=en&sjid=2393747207196866738-NC
Gemma3凄いよな。LMstudioなら超簡単に導入できるし皆試して欲しい。ただ弱点はハルシネーションが凄い事だけどそれを含めてGPT4の出はじめぐらいの性能の体感に近いしこの小さなモデルでそれが出せるのは驚異
ホリエモンと与太話してるおっちゃん
中島聡さん、最近は投資の本とかも出してて、賢いから幅広くできてるのか、なんか迷走してるのか気になってる。
gemma3 27Bよりphi4 14BのほうがMMLUスコアは高いです
ローカルAIは本当にどんどん進化していてすごいよね。回数制限とか料金とか気にせずガンガンあらゆるタイミングで高性能のAIが使えるようになりそうで楽しみ。
ローカルAIを頑張るよりもパブリックなAIを二つに契約して対話させてたほうがコスパがよい。
質問一個で優劣を示されても頭痛が痛いが、AIがパラダイムシフトをおこしつつあるのは事実。Webほど万人に刺さるわけでは無いだろうけど、頭使う仕事してる人は戦々恐々して、使いこなさないとまずい。
やはり4090か5090欲しいなあ
過去のメルマガ読み返しても超伝導に傾倒なんてしてなかった(時事ニュースとして2回紹介してただけ)。はてブコメントなんて話半分か話1/4で読んどいたほうがいい。
ガチテロリストかと思った、中身は読んでない
コーディングエージェント用途だとまだクソの役にも立たないけど、Copilot的支援だったらこのへんのローカルAIでももう実用的なので、情報漏洩せず無限に投げられるツールとして1台社内で運用を考えてもいいとは思う
中島聡が走らせることができないというDeepSeekの一番大きなモデルはパラメータ数671b、メモリ1,342GBと桁違いで、所有のMacBook Proは40万円以上と思われる
"エンタープライズ市場においては、クラウド上のAIサービスではなく、パソコンもしくは社内のAIサーバーにオープンソースなSLMを走らせるのが主流になると私は見ています。 一番分かりやすい理由は、社外秘の"
手元でgemma3を試したところ同じ質問(本文からのコピペ)に対して、同じ27bでも、Q8は正解、Q3_K_Lは不正解(ただしわからないと答えたのでハレーションではない)だったのが興味深い