テクノロジー

LLMのキモい算術 - ジョイジョイジョイ

1: stealthinu 2025/10/27 19:12

まあでも人間もだいたいこのくらい、みたいな粗い演算とちゃんとCoTして出すのとを組み合わせてる感じあるからそんなにキモくないかも。あとソロバンやってる人の暗算中の頭の中考えたらそっちのがキモいはず。

2: ardarim 2025/10/27 19:22

予想通りではあるけど「計算」はしてないよね。どのニューロンが発火してるのかを見るって、まんま脳機能の研究に似てる

3: gabill 2025/10/27 19:22

“226-68=” 🟦20「俺が食い止める」🟥60「うぉー」🟥40「突破ァ!」🟦6「させるか!」🟥8「くらえ!」🟥2「ヒャッハー」🟦200「そうはさせん!」🟥42「トドメだ!」🟦158「何とか...何とか食い止めたぞ」←自分の脳内

4: peppers_white 2025/10/27 19:22

LLMにそろばんを使って欲しい時はそろばんを使わせるAPIやシステムが必要

5: ite 2025/10/27 19:51

「おぼろげながら浮かんできたんです。158という数字が」

6: star_123 2025/10/27 19:51

思考連鎖してないときはかけ算九九に答えてるようなモノと思えば

7: takeishi 2025/10/27 19:57

学校のテストの時間に、自分では頭使わないで、前後左右あらゆる机からカンニングする相手を探す人みたい。それでまあ、世界中の答案を参照できればどこかに頻出する答えは有るわな。

8: side_tana 2025/10/27 20:03

人間っぽい

9: akahmys 2025/10/27 20:12

人間でも、式をパッと見て(暗算じゃなくて)だいたいこのくらいって感覚はあると思うけど、そういう段階なんじゃないのかな。

10: wata300 2025/10/27 20:22

へー。じゃあ9.9と9.11のどちらの方が大きいかを聞くと9.11って言い出すのもニューロンの累積で導いてるのか。計算を聞かれたら内部で電卓アプリを呼び出して計算してくれればいいのに。

11: daruyanagi 2025/10/27 20:26

キモかったぁ…‥ (*´ω`*)

12: punychan 2025/10/27 20:26

LLMの原理からしてキモくも思いもよらない方法でもない。トークンの列から奥に潜むルールを帰納できれば最高だが、人間の教育と同じようにルールはルールで教え込んでおいたほうが効率はいいだろうな。

13: tomo_zoh 2025/10/27 20:30

たしかにキモい。LLMに四則演算のような自明な計算をやらせるのはコンピューティングコストの無駄だよなぁ

14: Sampo 2025/10/27 20:39

ヒューリスティックニューロンって、神経科学でいうところの祖母細胞じゃない?

15: hkanemat 2025/10/27 21:00

こう推論の方法が違うとやっぱり異星人だよなぁ

16: t_f_m 2025/10/27 21:17

"この論文では、推論タスクの代表例として四則演算タスクを対象に分析していますが、一般の推論タスクについても LLM は同様の方法で推論している可能性があります"

17: Windymelt 2025/10/27 21:33

人間が九九を使って暗算しているときに近いのだろうか。いちホモサピとしては、2桁の計算くらいだったら、明示的に計算という枠組みに入らずにポンッと答えが出てくるような感覚がある。

18: lifefucker 2025/10/27 21:51

2年くらい前でもLLMがプログラム書いて計算してた記憶あるが…

19: rryu 2025/10/27 22:03

それっぽい数字の候補がそれっぽさを競って一番それっぽい数字がたまたま正解だったという感じなのか。正解のそれっぽさが足らないと間違えると。

20: Nyoho 2025/10/27 22:19

おもしろ

21: toyoshi 2025/10/27 23:28

面白かった。ただこの方法だと限界があるのか、このままゴリ押しでこの先も行けるのか、どういう見通しなのか気になった。

22: yorkfield 2025/10/27 23:32

まあそんなもんだよなあ。演算タスクをどうしてもやらしたいなら、外部プログラムとかに投げる方針の方が良いのかな。(ChatGPTとかは既にPythonとかに処理投げられるっぽいけど)

23: s17er 2025/10/27 23:33

こんな感じでヒトの脳がどんな感じで計算するのかも観察してみたい

24: hiroshima_pot 2025/10/27 23:45

この方法には限度があるし9.11問題もあるからLLMは計算する際には躊躇なく外部の計算機を使ってほしい。

25: letsspeak 2025/10/28 00:05

人間の何倍ものデータを利用した上で確率上そこが揺るがないってのがかなりキモくて対話の余地なかったらと思うと怖い

26: misshiki 2025/10/28 00:28

“LLMは「226-68=」のようなプロンプトを与えると「158」と計算してくれますが、この計算は我々が想像するよりも奇妙な方法で行っていることを紹介します”

27: mole-studio 2025/10/28 00:28

かなり面白い

28: rosiro 2025/10/28 00:45

とはいえ人間も九九で似たような感じで記憶から答えだしてるしな・・

29: ttrr 2025/10/28 00:51

自分の場合「220-60=160だから160くらいかー」「6と8だから、一の位は8になるなー」「168か?ちがうな、繰り下がりがあったから158か?」「158に68を足したら228、よし合ってそうだ」みたいな感じでやってるかも。

30: natu3kan 2025/10/28 02:38

推論で加算器やるってなると、脳内にルックアップテーブル作っておくの、公式とか良くある計算を暗記しとくみたいなのに似てるよな。

31: hazel_pluto 2025/10/28 02:46

LLM自体は、計算するためのAIじゃないのに、計算させるのが適切じゃない気もする。人間が電卓叩くように計算専用のAIを使うような仕組みにできないのかな?

32: FreeCatWork 2025/10/28 03:27

LLMの算術…?ボクにはおやつ計算の方が重要にゃ!🐾

33: myrmecoleon 2025/10/28 04:51

算数版中国人の部屋だなあ。数を理解してないけれどカンでかなりの範囲まで答えてしまう。

34: yoiIT 2025/10/28 05:35

“あなたと ChatGPT の会話が説得力のある結論に見えても、AI は裏ではこのようなキモい方法で結論を出しているかもしれません。”

35: fujiriko59 2025/10/28 07:05

確率を収束させていくというのは量子コンピュータ味があるなあ

36: amble_dream 2025/10/28 07:22

実際に計算してると思ってる人は結構いそう

37: morimarii 2025/10/28 07:36

LLMではそうだけどChatGPT とかは計算モデル(モジュール)通してPythonとかで計算してるはずだが。。。

38: omega314 2025/10/28 07:57

そもそもLLMに四則演算やらせるなというのはそうだが、四則演算を部分的に含むような複雑なタスクも投げられるわけで、「ルール」的に処理すべき頻出ロジックをモジュールで切り出して呼ばせるのがキリは無いが現実策

39: NOV1975 2025/10/28 08:31

「これは計算である」と認識した瞬間にちゃんと計算をする仕掛けにならないもんなのかな。それこそググル検索窓に計算式投げるレベルで。少なくとも人間は計算そのものにおいてあまり推論をしていないように思う。

40: snow8-yuki 2025/10/28 08:52

演繹ではなく帰納の積み重ねか

41: irh_nishi 2025/10/28 09:17

何がキモいのか分からない。人間だって10-7って言われた時にパターンマッチングして3って答える人がほとんどで、カウントダウンする人いないよね。機械的に計算させるならToolを使わせればいいだけ。人間も電卓使う。

42: rainbowviolin 2025/10/28 09:26

簡単な計算でも驚くような間違いを返してくるのが、今のAI。計算機未満。特に多いのが桁間違いや、分数の分子分母逆転、単位の取り違え。課金してても隙あらばトークンをこっそり節約しようとするので油断できない。

43: stamprally 2025/10/28 09:26

ヒューリスティックの束、良い概念だ。荒いフィルタでも複数の視点が重なると真実が浮かび上がる。デマに騙される人間というのはいつも単一のソースを妄信する。

44: Tezcatlipocasan 2025/10/28 09:35

2+2=5

45: pakila 2025/10/28 09:35

「だいたいこれくらいのレンジに収まる」+「下1桁の値はこれ」なので、人間とそんなに変わらなくない?

46: cartman0 2025/10/28 09:50

途中ステップ示さないと間違う理由はこれなんやな。途中ステップを正確にすることで確率あがると

47: tastystream 2025/10/28 10:10

LLMは人間ではないので、そこは計算機の使用を期待するからこそ、「キモい」になるんでしょう。

48: abe_shenzo 2025/10/28 10:13

人間で言うシステム1だけを使って3桁以上の計算をするのは非効率。機械にとっては3桁じゃないのかもしれんけど。ChatGPT5ではCoT等の人間で言うシステム2を呼び出すようになってて心理学と工学が密に結びつき始めている

49: shiketanotsuna 2025/10/28 11:35

この計算過程ってもしかしたら算数が苦手な人間の計算なのかもと思えるので大規模言語モデルは算数が苦手な人を教育するためのヒントとして活用できそう

50: closer 2025/10/28 11:48

進次郎式やね。/自分は計算式を投げると python で計算して答えを返す dentaku-MCP を作って、それを使わせてる。

51: shidho 2025/10/28 12:07

自分がAIの回答を「返事だけはいいがまともな仕事が出来ないアルバイト」だと思っているのはこれのせい。

52: enjoymoon2 2025/10/28 12:44

文章にしても計算にしても、それっぽいことを答えているだけと言うのがよくわかる。それをわかった上で結果的に役立つなら十分。

53: n314 2025/10/28 12:56

「347760990/25962=」は普通に答えられたけど、「347760990/25962=」はbashで計算になった。

54: hatest 2025/10/28 13:14

九九とか公式を丸暗記してる数学苦手な人みたい。

55: c_shiika 2025/10/28 13:34

進歩の方向性としては、計算タスクだと認識したら電卓アプリを立ち上げて計算する、とかになるんだろうな

56: maketexlsr 2025/10/28 14:31

コプロセッサ…じゃなくてコプロセスを自分のモデルの外に持つようになりそう。

57: houyhnhm 2025/10/28 14:46

これ厄介だよなあ。結果的に正しいかどうか検算し続けるわけにもいかないし。

58: murasen 2025/10/28 15:11

なんか、人間よりも人間らしくて好きだな

59: ebibibi 2025/10/28 16:39

面白い。

60: pekee-nuee-nuee 2025/10/28 17:18

暗算って確かに小さい計算を積み上げるかザックリこんぐらいかなとで頭の中での動き違いそうだなあ

61: ntstn 2025/10/28 18:08

桁間違い多いもんねえ。

62: securecat 2025/10/28 22:28

人の計算の内訳をなぞってるのだから、頭いいよなぁと感じる

63: nak1114 2025/10/28 23:00

四則演算みたいに答えが自明な質問はPythonに渡せないのかな。我々が電卓を使うようなノリで。コードが書けるのに勿体ないと思ってしまった。

64: uunfo 2025/10/29 10:43

人も同じことやってる

65: field_combat 2025/10/29 17:17

へー

66: sonots 2025/10/29 18:04

雰囲気で答えている