テクノロジー

LLMは「同じ質問を2回」入力すると精度が上がる──Google研究者ら、プロンプト反復の効果を短報で報告 | Ledge.ai

1: nakag0711 2026/01/05 08:05

同じ質問を2回入力すると精度が上がる。同じ質問を2回入力すると精度が上がる。大事なことなので2度言いました

2: pico-banana-app 2026/01/05 08:23

同じ質問2回するだけで精度上がるのは草。人間もAIも二度手間が大事なんだな

3: quwachy 2026/01/05 08:26

みんな思うこと、内部で勝手にやれ。既にやっていること、連鎖推論モデル。

4: zgmf-x20a 2026/01/05 08:30

大事なことは二回言わないといけないかな。

5: Listlessness 2026/01/05 08:35

タイトルにNon-ReasoningとあるようにReasoningモデルではほとんど効果ないからね。速さとコスパでNon-Reasoning選ぶ場合は効果あるしトークンコストもそんなに上がらないからいい方法ではある。

6: pribetch 2026/01/05 08:35

ふかわりょうメソッド

7: sugawara1991 2026/01/05 09:14

これ人間相手での「結論から伝えよ」と相似では。時間軸で情報が流し込まれる時にまずコンテキストの大枠が受け手にできてると適宜情報の解釈がリッチになる感じで

8: Kurilyn 2026/01/05 09:44

大切な事なのでもう一度言います。

9: nomitori 2026/01/05 09:59

体感的にこれは感じることあるな、最初からそう回答してよってやつ

10: youchin 2026/01/05 10:01

大事なことなので二度聞きました

11: hatest 2026/01/05 10:07

体感的には、同じ質問を2回入力すると精度がちょっと上がるが、3回同じことを質問すると元のクソ回答に戻るときが多い。

12: arapro 2026/01/05 10:15

どちらかと言うと最近GPT-5.2が「一つ前の回答をもう一度繰り返す」ことをしてくる。繰り返すことが有益だと思ってるのかなんなのか。

13: golotan 2026/01/05 10:20

ちゃんと読めてないけど、non-reasoning限定ということは、自分自身の過去の応答を参照する形での実質セルフプロンプト拡張、手動chain-of-thought的な働きをしてるってことなのかな

14: htmikan 2026/01/05 10:23

分かる。Copilot非ログインで、質問後にブラウザ閉じて、再度ブラウザ開いて同じ質問すると、前回より正答率高い回答を提示してくる。不思議。

15: younari 2026/01/05 10:43

賢くなると人間で言う先回り理解(気を利かせているつもり)みたいな現象が出るんだよな。特にGemini 3.0 Pro

16: shoot_c_na 2026/01/05 10:56

大事なことなので二回言いました

17: ardarim 2026/01/05 11:25

大事なことなので以下略

18: aceraceae 2026/01/05 11:30

コメント欄が予想どおりで安心する

19: Goldenduck 2026/01/05 12:57

進次郎構文で質問したら一回で済むのだろうか

20: duckt 2026/01/05 12:58

もはや呪文に近い。

21: urtz 2026/01/05 13:04

人間の記憶や思考精度が上がる手法は、AIにも通用するのかも?何か他にもあるかな。思考リソースのコスパが良さそうなやつ。

22: sabinezu 2026/01/05 13:25

「本当か?」は毎回言っている。

23: fashi 2026/01/05 13:33

語順の違う日本語でも同様なのだろうか

24: number917 2026/01/05 13:37

ポンコツな人間から学習してるだけあって結構ポンコツだよな

25: masahiko_of_joytoy 2026/01/05 13:47

一番精度が上がってるのがNameIndex 25th of 50なので、選択肢の中から1つ選ぶ系のタスクで精度向上が期待できそう

26: GENS 2026/01/05 13:48

スターをください。スターをください。 / 建設的コメント認定はもらえなかったヨ…

27: incubator 2026/01/05 13:58

回答を貰った後に再質問するのか、1回の送信で同じ質問を2回書くのか、どちら?普通に考えると前者なような気もするけど、後者だとどうなる?

28: otihateten3510 2026/01/05 14:18

なんか新人詰める時のやり方がそのままLLMに使えるのって闇深いよな

29: mongrelP 2026/01/05 14:20

人間でも割と有効な気がするんだよな

30: soulfulmiddleagedman 2026/01/05 14:29

現状だと、開発元もこのレベルで仕組みがわからないものなのか...

31: mint6626 2026/01/05 14:42

人間と同じ。まずはざっと概要を回答させる。次に同じ問いをすると骨格を理解した上で細かい部分まで詰めて回答する。

32: dynamicsoar 2026/01/05 14:56

じゃあ内部的に自動でやってくれよ…

33: natu3kan 2026/01/05 15:02

大切なことなので二度言いました(既出)。重要な事は繰り返し言うと精度あがるの人間っぽい。

34: s-supporter 2026/01/05 15:10

推論を用いない設定での話ですが、人に似ているなあと。人も同じ質問をされたら「あれ?間違い?じゃあもう少し調べてみよう」と考えて行動するし、更に詳しく深堀りしたうえで言い方(説明)を変えたりするので。

35: rogertroutman 2026/01/05 15:31

「同じ質問を何度もするタイプの人なんだな、丁寧に答えてあげないと」

36: kahoma621 2026/01/05 15:40

同じ質問を2回繰り返すとAIの回答の精度が上がるということは、つまり、同じ質問を繰り返すことでAIの回答精度が上がっていくということなんです。

37: misshiki 2026/01/05 15:52

“Googleの研究者らは、同一の質問文を2回連結して入力するだけで、大規模言語モデル(LLM)の回答精度が向上するとする研究成果を発表した。”

38: minamiminamikita 2026/01/05 16:25

"タイトルにNon-ReasoningとあるようにReasoningモデルではほとんど効果ない"

39: sabo_321 2026/01/05 16:44

「同じ質問2回入力すると精度が上がるんだぜ」「つまり同じ質問を2回入力すれば精度が上がるってことね」

40: sucelie 2026/01/05 17:13

つまり1+1=200で10倍なのか?

41: FreeCatWork 2026/01/05 17:22

おんなじこと聞いたら賢くなるなんて、ボクももっとお勉強するにゃ!

42: yoiIT 2026/01/05 17:23

「2回入力」ではなく、回答された後にもう一度同じ質問した場合は、体感精度が低くなる。たぶん、一度答えたのに、また同じ質問ということは前の回答が気に入らなかったんだな。。と忖度が入るせいだと思ってる。

43: manaten 2026/01/05 17:24

"例えば、通常はQと入力するところをQQとする。" ガチで進次郎構文見たいいな感じで笑う / 真面目な話、LLMは「続きらしき文章を作る」だけだから、問題解決という明確な目的があるときはより適切な入力があるのだろう

44: circled 2026/01/05 17:27

「あなた浮気した?」『は?』「あ な た 浮 気 し た ?」← 人間も精度上がりそう

45: s17er 2026/01/05 17:46

AI「また同じ質問かよ」

46: ene0kcal 2026/01/05 18:12

今朝これのYouTube動画を観たのでその仕組も、メリット・デメリットもだいたいわかる。トークンを消費しないってのがいいなと思った。/コンテキスト予測という生成AIの特徴なのでそうなるよねという納得感。

47: kastro-iyan 2026/01/05 18:20

じゃあ最初から2回入力しろよ

48: zzteralin 2026/01/05 19:00

だからワイドショーの司会者は大事な事を2回言ってたのか。

49: nanana_nine 2026/01/05 19:23

これはプロンプトの基礎知識で新たな報告でもないのでは。ペルソナをつけるとかやってない人多いよね。

50: tikani_nemuru_M 2026/01/05 19:58

ブルースの歌詞だな・・・「あの娘は俺を捨てて行っちまったぜ。あの娘は俺を捨てて行っちまったぜ」。このエモーショナルな方法論がAIの正確性をあげるために有効とは、なんか皮肉だな。

51: minoton 2026/01/05 20:50

チャットの入力ミスきっかけで何となくそんな気がしてた

52: yu_kawa 2026/01/05 21:09

なんで2回言うねん

53: rlight 2026/01/05 21:27

"質問文と文脈や選択肢の配置順(question-first / options-first)によって性能差が生じることが知られている。プロンプト反復は、各トークンが他のすべてのトークンを参照しやすくすることで、この差を緩和する"

54: estragon 2026/01/05 21:39

“質問文と文脈や選択肢の配置順(question-first / options-first)によって性能差が生じることが知られている。プロンプト反復は、各トークンが他のすべてのトークンを参照しやすくすることで、この差を緩和すると説明”

55: zu2 2026/01/05 21:39

すぐ忘れるもんな。バグ修正させると bug1 -> bug2 -> bug3 -> bug1 を繰り返したり

56: ringtaro 2026/01/05 22:17

言いたいことは既に言われていた…

57: welchman 2026/01/05 22:20

think twiceかよ。/ChatGPTとの応答をそのままGeminiに伝えて、その応答をChatGPTに伝えるのが現状の最高だと思っている。Claudeはすぐ無料の応答は終わりって言うし、Copilotはぴちょんくんでしかない。

58: mame-tanuki 2026/01/05 22:29

この件をGemini に確認したら、同じ用に「<短い指示><詳細説明やデータ><(冒頭と同じ)短い指示>」のサンドイッチ型プロンプト記法を勧められた/プロンプトの"詠唱"方法とか気にせず使える完成度はまだ先か…

59: duxfaz 2026/01/05 23:03

大事なことは繰り返されるって学習したのかな

60: akinonika 2026/01/05 23:59

「大事なことなのでもう一度言いますよ!」……AIも人間もあんまり変わらない?

61: fhvbwx 2026/01/06 00:12

最近のLLMだと同じ入力はキャッシュされているのでは?

62: nikkie-ftnext 2026/01/06 00:29

<QUERY> を <QUERY><QUERY> にするだけ。推論モデルに近い振る舞いを推論しないモデルにやらせている。Gemini Flash Lite、Claude Haiku、GPT-4.1あたりで試したい

63: aaasukaaa 2026/01/06 01:23

長袖をください。みたいなこと?

64: yamadar 2026/01/06 03:36

大事なことなので

65: tienoti 2026/01/06 05:40

同じ事を2回いうと精度が上がる話より、最初の質問に対してズレた回答だった場合に、最初の回答に含まれた話は忘れてくれor無関係と何度指摘しても引きずる傾向をどうにかする方法を教えて欲しい