テクノロジー

謎の超小型AI「HRM」、たった2700万パラメータで巨大なOpenAI o3やClaude 3.7を蹴散らす(生成AIクローズアップ) | テクノエッジ TechnoEdge

1: Seamless 2025/08/05 09:03

精華大卒の若き2人が創設のAIチームが開発。訓練サンプル1000件でAGIレベルを評価するテスト「ARC-AGI-1/2」で巨大なo3-mini-highやClaude 3.7を凌駕しトップ

2: forest1040 2025/08/05 11:49

HRM久しぶりに聞いた。ジェフ・ホーキンス

3: t1mvverr 2025/08/05 12:22

GPT5も似たような構成という噂を見た気がする

4: T-norf 2025/08/05 12:23

まだ特定タスク専用という感じかな。ただ、こういった新しい機構がうまく今の先端LLMと融合したら、とんでもない成長を見せる可能性はあって、ちと怖いという感覚もある

5: hobbiel55 2025/08/05 12:34

「人間には簡単だがAIには難しい汎用人工知能(AGI)を測定するベンチマーク「ARC-AGI-1」では40.3%の精度を達成し、これはOpenAIのo3-mini-highの34.5%、Claude 3.7 8Kの21.2%を上回る成果です。」

6: hhungry 2025/08/05 12:37

AGI!AGI!

7: stealthinu 2025/08/05 12:42

高次ニューラルネットと低次ニューラルネットで言語介さずに直接CoTのループ回すみたいな感じ?Metaの概念ベクトルでCoTするのとかも近い話か。すごく小さいモデルなのは概念実証用なのかな。

8: twmw 2025/08/05 12:46

これさえあればオルツも少しは延命できた

9: rdlf 2025/08/05 13:17

お手軽に試せるようにhuggingfaceで配布してくれないかな… https://huggingface.co/sapientinc

11: mayumayu_nimolove 2025/08/05 13:48

ラズベリーLLM

12: ryudenx 2025/08/05 13:50

アメリカと中国ばかりで悲しい

13: uunfo 2025/08/05 13:57

精華大学って京都のではなくて北京にあるのね

14: kaorun 2025/08/05 14:13

ジャブジャブにお金突っ込んでどかどかリソースを投入する米国勢と、諸事情で限られた制約の中で効率よく動くモデルを模索する中国勢だと、最終的に後者のモデルが効率で凌駕する事になるんじゃないか、という気がね

15: misshiki 2025/08/05 14:33

“、わずか2700万パラメータという小規模なモデルでありながら、複雑な推論タスクにおいて最先端の大規模言語モデル(LLM)を凌駕するモデルを開発した論文「Hierarchical Reasoning Model」”

16: cloverstudioceo 2025/08/05 14:49

で、試すと全然使えないパターンを散々見てきたからなぁ

17: mohno 2025/08/05 14:50

「AGIを評価するより難しいベンチマーク「ARC-AGI-2」において、スコア5%のパフォーマンスを達成し、はるかに大きなサイズとコンテキスト長に依存するOpenAI o3-mini-high、DeepSeek R1、Claude 3.7 8Kなどを大幅に上回りました」

18: m0um00n 2025/08/05 14:54

クロード