テクノロジー

中島聡がガチでテスト、「今一番賢いローカルAI」のすごい実力。Phi-4やGemma3を知らない人、そろそろヤバいかもです - まぐまぐニュース!

1: kotesaki 2025/03/19 09:12

中島氏の意見に禿同(死語)する。自分のよわよわ環境(Ryzen9 HX5900/32GB/GPU無)で動かしても同様の傾向。あと単に日本語でやり取りするぐらいならSoftbankのsarashina2.2-3Bをおすすめする。あれは結構賢い。

2: lainof 2025/03/19 10:00

こういうのって、たまたま知ってた知識かどうかに依存しないの?

3: otchy210 2025/03/19 10:34

PC の画面を見る権限、キーボードとマウスを操作する権限を AI に与えて音声入力で何でもやらせる時代の到来を待っているのだが、クラウド AI でそれをやるのは怖すぎるのでローカル AI の進歩に凄い期待している。

4: logic 2025/03/19 10:38

「ヤバいかも」なんて煽る文章ばかりになってAI登場前より劣化してる

5: naoya-i 2025/03/19 10:59

この人は、ウェブ2.0おじさんの後は、AIおじさんになったのか

6: T-norf 2025/03/19 11:34

手を出すつもりは当面ないのだけど、オンプレ必須という要件が来た場合に、どっかのタイミングで備えないとよね。AI開発の総合力も考えるとGoogle/Gemma3の一択かな

7: D_first 2025/03/19 11:51

その1問だけでそんな判断していいのかしら

8: udongerge 2025/03/19 12:05

中島聡って人、寡聞にして知らなかったので中嶋悟かと思って一瞬焦ったわ。

9: l_etranger 2025/03/19 12:23

"本記事のタイトル・見出しはMAG2NEWS編集部によるものです" 一問だけ試してガチテストと言い,そろそろヤバイと煽っているのは掲載媒体。Phi4とGemma3が優秀なのは自分も試して感じた。ローカルLMはしばらくこれでいい

10: raitu 2025/03/19 12:24

PC内のみで動かせる小規模言語モデルでは、現状MSのPhi-4とGoogleのGemma3がおすすめという話。現行、GPT4以上の期待が寄せられる状況とのこと

11: kuippa 2025/03/19 12:35

SLMがもう少しちっこくなったら手をだしてもいいかも

12: spark7 2025/03/19 12:38

「賢い」と「物知り」を見分けるのは難しいわな。

13: turanukimaru 2025/03/19 12:38

AIとチャットするのは時間の無駄でユーザの操作や行動を自動的にAIに送るべきだと思ってるので最後の文章が切れてるとこに同意。例えばSlackやTeamsで誰かがバグ報告送ってきたらエラー内容とコードをAIに解析させるとか

14: crawd 2025/03/19 12:42

元オリ監督はAIにも造詣が深いのか…と空目したわ/マジかweb3にも超伝導(あのLK-99で草)にも食指を出してたのね…多才だなあ()

15: prjpn 2025/03/19 12:52

幻魔は良いよ。プロンプトをちゃんと書けてAPI沢山使いたい人はおうちサーバー立てもいいレベル。

16: tohokuaiki 2025/03/19 12:55

“中島聡”…一瞬イニシャルDの作者の義理の息子の元プロ野球選手が現役復帰のプロテスト受けたんかと思ってしまった。

17: Kazumi007 2025/03/19 13:02

参考になる。phi-4試してなかった。

18: siszk 2025/03/19 13:12

おすすめってだけじゃん

19: iphone 2025/03/19 13:15

下品なタイトルだなぁ

20: udddbbbu 2025/03/19 13:22

“中国共産党の意向が反映されたモデルであるため、台湾問題、天安門事件などに関しては、中立的とは言い難い返事をするのが欠点です。”Deepseekウケる

21: strawberryhunter 2025/03/19 13:41

ノートPC1つで世界のどこでも開発できていたものが、ローカルLLMを実行するための強力なハードウェアを近くに置く必要が出てきて簡単に離れられなくなる。この状態はいつまで続くかな。

22: footballnoaka 2025/03/19 13:45

ちなオリ炙り出しタイトル

23: tempodeamor 2025/03/19 14:42

これからは米国産LLMは「共和党の意向が反映されたモデルであるため、議会襲撃などに関しては中立的とは言い難い返事」を返してくるんだろか。

24: palo 2025/03/19 14:44

『顧客からの注文が入るたびに、オペレーターのキーストローク1つごと、カメラが捉える映像の1フレームごとに推論を走らせることが可能になり、これまでの従量課金を前提としたものとは根本的に異なる設計の…』

25: asyst 2025/03/19 14:55

Phi-4全然話題にならないが14Bながらけっこう賢い

26: kei_1010 2025/03/19 14:55

後で読んで試す。しかしQwQ32BはR1の671Bと同等って謳ってなかったっけ?/ 試した。QwQ 32Bの方が phi 4 14Bよりだいぶ賢い気がする。 https://kei-1010.hatenablog.com/entry/2025/03/19/224952

27: nomakkah 2025/03/19 15:03

どちらもハルシネーションが多い印象。実務だとdeepseek系のほうが良い気がする。

28: sechs 2025/03/19 15:29

メルマガではヤバいかもと書いてなかったので、タイトルつけたのははmagmag側か。この人はNFT思いっきり開発して幻滅したので今はAI開発に行ってる。新しい技術をこれくらい楽しんでいきたい

29: dot 2025/03/19 15:36

Appleが今まさに試みてるけど早くスマホに載って実用的なレベルになるといいよね。スケジュールやメール等のプライバシー情報はサーバに渡したくないので、ローカルAIで安全に使えると滅茶苦茶便利になると思う。

30: tessy3 2025/03/19 15:48

これらのメモリのPCを買えるかどうかで変わってくるから、さらに貧富の差が開きそう。会社ではクラウドのAIと契約してるから、これはあくまでも個人用だろうな

31: yau 2025/03/19 15:50

ガチでテスト=質問1個w。頭悪そうなコピーを書いたまぐまぐニュースのライターをローカルAIで置き換えたい

32: zgmf-x20a 2025/03/19 15:55

現時点ではrinnaのqwq-bakenekoが最強だと思う。

33: misshiki 2025/03/19 15:56

“どれが一番賢い?オープンソースな言語モデルの実力をテスト...現時点では、MicrosoftのPhi-4とGoogleのGemma3がオススメ。色々と質問していると、9.1GB、17GBというメモリの中に、莫大な知識が詰まっていることに本当に感心”

34: zsehnuy_cohriy 2025/03/19 15:56

タイトルはクソ以下だが、まあ言いたいことはわかる。でもそんなに読む価値ないよ、ブコメだけ読んどきゃいいレベル

35: soulfulmiddleagedman 2025/03/19 15:58

やばいか...

36: closer 2025/03/19 16:07

粋な終わりかただなと思ったら、有料部分が読めなくなってるだけだった

37: hibiki0358 2025/03/19 16:28

内容はともかく【ガチで検索とかいうのやめようぜ。いくら内容が良くても、この言葉あるだけで記事の信頼度がダダ下がり/【ガチで】ってのがアホの子の言葉とは感じないのだろうか?

38: hatest 2025/03/19 17:02

1か所だけGemma3がGamma3に誤記ってる。

39: hryord 2025/03/19 17:11

元F1ドライバーかと思ったら字が違ったわ

40: kastro-iyan 2025/03/19 17:11

このおじさん、一昨年はWeb3おじさん、去年から超伝導おじさんだったから、話半分で聞いたほうがいいよ。

41: tanagosandwich 2025/03/19 17:16

モンハンやりたくてrtx4060が45するんだよなぁー。 パソコンまた値上がりするのか。

42: FreeCatWork 2025/03/19 17:18

すごいニャ!賢いAIの話、面白いにゃ!ボクも賢くなりたいにゃ!

43: wktk_msum 2025/03/19 17:49

gemma3やっぱり良い

45: stabucky 2025/03/19 18:44

「どれが優秀」とかそういうレベルで考えているならば、それは遅れている気がする。

46: dgen 2025/03/19 18:45

つまりプロの驚き屋ってこと?

47: duckdown 2025/03/19 18:47

これはいいね。月に200ドルをOpenAIに払うのはつらいので

49: tomono-blog 2025/03/19 19:06

スモールLLMと言う言葉遣いが面白い

51: star_123 2025/03/19 20:04

Gemma3凄いよな。LMstudioなら超簡単に導入できるし皆試して欲しい。ただ弱点はハルシネーションが凄い事だけどそれを含めてGPT4の出はじめぐらいの性能の体感に近いしこの小さなモデルでそれが出せるのは驚異

52: hohototo 2025/03/19 20:28

ホリエモンと与太話してるおっちゃん

53: toyoshi 2025/03/19 21:09

中島聡さん、最近は投資の本とかも出してて、賢いから幅広くできてるのか、なんか迷走してるのか気になってる。

54: nzjvugjjk 2025/03/19 21:52

gemma3 27Bよりphi4 14BのほうがMMLUスコアは高いです

55: KAN3 2025/03/19 22:42

ローカルAIは本当にどんどん進化していてすごいよね。回数制限とか料金とか気にせずガンガンあらゆるタイミングで高性能のAIが使えるようになりそうで楽しみ。

56: syu-m-5151 2025/03/20 01:33

ローカルAIを頑張るよりもパブリックなAIを二つに契約して対話させてたほうがコスパがよい。

57: cinq_na 2025/03/20 02:39

質問一個で優劣を示されても頭痛が痛いが、AIがパラダイムシフトをおこしつつあるのは事実。Webほど万人に刺さるわけでは無いだろうけど、頭使う仕事してる人は戦々恐々して、使いこなさないとまずい。

58: uzusayuu 2025/03/20 04:07

やはり4090か5090欲しいなあ

59: room661 2025/03/20 10:26

過去のメルマガ読み返しても超伝導に傾倒なんてしてなかった(時事ニュースとして2回紹介してただけ)。はてブコメントなんて話半分か話1/4で読んどいたほうがいい。

60: kantanta422 2025/03/20 10:29

ガチテロリストかと思った、中身は読んでない

61: vegnpomn 2025/03/20 12:58

コーディングエージェント用途だとまだクソの役にも立たないけど、Copilot的支援だったらこのへんのローカルAIでももう実用的なので、情報漏洩せず無限に投げられるツールとして1台社内で運用を考えてもいいとは思う

62: hatebookmarking 2025/03/20 14:03

中島聡が走らせることができないというDeepSeekの一番大きなモデルはパラメータ数671b、メモリ1,342GBと桁違いで、所有のMacBook Proは40万円以上と思われる

63: naggg 2025/03/20 23:22

"エンタープライズ市場においては、クラウド上のAIサービスではなく、パソコンもしくは社内のAIサーバーにオープンソースなSLMを走らせるのが主流になると私は見ています。 一番分かりやすい理由は、社外秘の"

64: obaratch 2025/03/21 17:07

手元でgemma3を試したところ同じ質問(本文からのコピペ)に対して、同じ27bでも、Q8は正解、Q3_K_Lは不正解(ただしわからないと答えたのでハレーションではない)だったのが興味深い