テクノロジー

未だにAIを「統計的に次の単語を予測しているに過ぎない」って言ってる人いる

1: pico-banana-app 2025/09/30 22:55

結局「次に来る単語の予測」っていう表現がミスリードなんだよな。もはや魔法だろ

2: hungchang 2025/10/01 11:51

たしかにその表現から想起される素朴なイメージとは違うけども、推論しているというのはより一層違うのでは。

3: sds-page 2025/10/01 12:02

「次に来る単語の予測」じゃなくて「次に何を配置すべきかを概念的、統計的に選択してそれを言語化してる」って説明した方がいいかな?

4: kirine 2025/10/01 12:18

つまり、「統計的に次の単語を予測しているに過ぎない」ってことなのでは?

5: akghuaiooajt 2025/10/01 12:24

いや、人間は愚かなままで良い。

6: mr_mayama 2025/10/01 12:25

アホを見た/あーでも言語を分かってないと直感ですわからんのかぁ/知能とは言語による未来予測なのだよなぁ

7: knjname 2025/10/01 12:28

アテンションだの含めたものを統計と言うなという主張?

8: t-tanaka 2025/10/01 12:28

よく判らないのだが。統計はスカラー値でしか取れないと思ってる? ベクトルを対象にも統計は取れるし,高次元ベクトル空間に拡張してももちろん取れる。

9: hogeaegxa 2025/10/01 12:29

結局AI丸投げぺたぺた君なのに、それでなんでこんなイキれるのか不思議。こういうのが現行レベルでも、AIがあれば100%代替可能で死んだところで社会の誰も困らない人間の典型

10: gfx 2025/10/01 12:31

まあ今のChatGPTやGeminiのweb UIはLLMコール一回で終わりではなくagenticな振る舞いをするので、それはそう(本文の主張はよく分からなかったが)。そして「agenticな振る舞い」を説明できる人は極めて少ないとは思う。

11: hatebu_admin 2025/10/01 12:36

小難しい理屈をふぇぇ…んすると、そうなるってだけやろ

12: mellhine 2025/10/01 12:39

じゃあ、次に来る単語の予測で合ってるな。(予測というより妥当さとかだろうし、次だけでなくある程度先まで考慮してるだろうけど。)/ただ言いたいのはイメージしてるような思考をしてる訳じゃないってことでしょ

13: shinonomen 2025/10/01 12:44

増田が予測の価値を過小評価しているのでは? 松尾豊教授は「知能の本質は予測能力」だと指摘されていたよ。

14: c_shiika 2025/10/01 12:48

ブコメ書くときも条件反射で次に来る文字列を連想しながら書き連ねているなと我が身を振り返る様になった。プロンプト(お題)がないと文が書けない。

15: xlc 2025/10/01 12:51

かつてバカが知識人を吊し上げて秩序が崩壊した国があってね。文化大革命と言うんだけど、日本もそんな感じになってきたな。

16: yzkuma 2025/10/01 12:55

僕はヒトの思考や芸術活動も複雑化した反射に過ぎないと思ってるけど

17: houyhnhm 2025/10/01 12:58

感心するのはそこじゃなくて、万単位のパラメータでLLMやるとまるで推論やってるかのように振る舞うって事で。我々だってどうやって思考しているかは分からん。

18: mermaidtan 2025/10/01 13:01

おそらく統計的に次の単語を予測するということが知性の本質なんじゃないかな

19: n2sz 2025/10/01 13:02

今のAIってパラメータがめっちゃ多い統計って認識だけどなあ

20: go_kuma 2025/10/01 13:06

素人わい「高次元ベクトル空間…かっこよ…」

21: sumijk 2025/10/01 13:07

次単語予測はデコーダーの事前学習の目的関数を説明しただけでは。細かいことを言えばそれ以外も最適化対象だけど基本的には次単語予測。もちろんこの話と埋め込み空間での現象は関係するけど話のレイヤーが違う

22: irh_nishi 2025/10/01 13:08

広義の意味として取るか、狭義の意味として取るかなのでは。エージェント的なLLMを組み合わせた動作は全く違うものになるけど、LLMそのものは「次の単語を予測している」ってなっちゃうよね。

23: kazeula 2025/10/01 13:09

Google Gemini の中の人が書いたオライリーの技術書にも「LLMは結局のところドキュメント補完エンジンに過ぎない」とあったよ

24: slkby 2025/10/01 13:09

AIに思考力まで奪われたのかい

25: htbman 2025/10/01 13:12

"伝わらなそう"←ここすき

26: myr 2025/10/01 13:15

俺もそう思って居るけど... function callとかしてても大体そんな感じじゃないかしら?

27: dominion525 2025/10/01 13:20

だからそれが「統計的に次の単語を予測している」ということなのでは…?

28: mushus 2025/10/01 13:21

「統計的に次の単語を予想しているにすぎない」が、その後の結論がだいたい理論跳躍してるイメージ。「〜ので文章の内容を理解してない(閃き的な仕組みが内部的にあるし、理解とは何かを定義できてない)」とか

29: sisui_ro 2025/10/01 13:21

質問への回答に対して、正しくなさそうだから「~~って言うのは本当?」って重ねて聞くと大体「いい質問ですね、たしかに~~というのは正確ではありません」とかしれっと嘘つかれることばかりなんだよな。現状は。

30: mix-in 2025/10/01 13:23

高次元ベクトル空間に圧縮して予測って正に統計では?だからこそ生成AIは統計的外れ値は出力できない。

31: ustam 2025/10/01 13:23

LLMのベースはニューラルネットワークという人間の脳の仕組みを簡略化して模倣したものなのだけど、単なる予測と違うのは、単語の意味を抽象化した上で文脈を理解し、推論を行えることなんじゃないかな。

32: masara092 2025/10/01 13:24

参照する先が単語ではなく文章と文章の纏まった物って階層状になってるだけで統計的に予測してる事は変わらないよね

33: oldriver 2025/10/01 13:28

多分「人間の知性と何が違うのか」を話したいんだよね。両者とも。

34: T-norf 2025/10/01 13:29

同感。人間が文字を書くときは、筆記具を上下左右に動かしているだけだ、と同等の言説よね。パターン学習を元に、確率的に選択するということを、多層(高次元)でやってて、論理回路ができてるとの解釈で良いと思う

35: zgmf-x20a 2025/10/01 13:31

裏返せば実は「知性」ってその程度だったとも…

36: alph29 2025/10/01 13:36

でもそれって予測じゃない?予測にすぎないはずなのにバカでかいデータ食わせたらまぁまぁ正しいことを言うようになったのが驚きポイントだと思ってる

37: Akech_ergo 2025/10/01 13:37

「意味理解や推論までやってくれました」は正確ではなくて、「あたかも意味理解や推論までできているかのように見える振る舞いをしました」だと思う。

38: kenzy_n 2025/10/01 13:43

突き詰めていくと次に起こる事を予測して先回りして実行してくれる未来予知の能力を発現するのではないかと妄想したりする。

39: mag4n 2025/10/01 13:45

AIは通常、計算させても実際に計算機に通してない。この先どうなるか分からんけど。GPTはこの辺見ておけばよい。 https://youtu.be/KlZ-QmPteqM

40: ssssschang 2025/10/01 13:45

統計的に次の単語を予測しているだけなのにこんなに会話が成立していることにびっくりしてるんやで。もしかしたら人間の知性なんてのもそんな程度のもんなのかもしれん

41: aike 2025/10/01 13:51

(単語の)統計的に次の単語を予測しているに過ぎないのではなく、(複雑な知識の)統計的に次の単語を予測しているに過ぎない。

42: xanaduuu 2025/10/01 13:53

単体ではそのままじゃなかろうか。でも、マルチエージェントとかエージェントフローとかがさくっと作れるようになっているから、もはや人間の居所としては、物理操作する部品になりつつある気がしなくもない。

43: cj3029412 2025/10/01 13:54

作家お筆先論「努力/経験/神がかりその他的に、ヒトに次の単語が降りてくる」が受け入れられた時代も(つい少し前まで)あったのですよ…AIの生成は、そこ(語彙プールからの選択≒思考≒創作)を、暴力で相対化したよね。

44: miki3k 2025/10/01 13:54

AI自身に聞いてみたら、パターンを元に予測しているって帰って来たけど

45: hardt 2025/10/01 13:55

確かに話の途中で「次の単語を予測して」相手の話遮っちゃう人いるよね俺ですごめんなさい

46: tpircs 2025/10/01 13:57

AIが意味を理解しているとは認識しないほうがいい、ってくらいな話だと思ってる。意味を理解しているくらいに見えてしまうんだけれど、それを前提として使ってると大きく間違う可能性がある。