同じ質問を2回入力すると精度が上がる。同じ質問を2回入力すると精度が上がる。大事なことなので2度言いました
同じ質問2回するだけで精度上がるのは草。人間もAIも二度手間が大事なんだな
みんな思うこと、内部で勝手にやれ。既にやっていること、連鎖推論モデル。
大事なことは二回言わないといけないかな。
タイトルにNon-ReasoningとあるようにReasoningモデルではほとんど効果ないからね。速さとコスパでNon-Reasoning選ぶ場合は効果あるしトークンコストもそんなに上がらないからいい方法ではある。
ふかわりょうメソッド
これ人間相手での「結論から伝えよ」と相似では。時間軸で情報が流し込まれる時にまずコンテキストの大枠が受け手にできてると適宜情報の解釈がリッチになる感じで
大切な事なのでもう一度言います。
体感的にこれは感じることあるな、最初からそう回答してよってやつ
大事なことなので二度聞きました
体感的には、同じ質問を2回入力すると精度がちょっと上がるが、3回同じことを質問すると元のクソ回答に戻るときが多い。
どちらかと言うと最近GPT-5.2が「一つ前の回答をもう一度繰り返す」ことをしてくる。繰り返すことが有益だと思ってるのかなんなのか。
ちゃんと読めてないけど、non-reasoning限定ということは、自分自身の過去の応答を参照する形での実質セルフプロンプト拡張、手動chain-of-thought的な働きをしてるってことなのかな
分かる。Copilot非ログインで、質問後にブラウザ閉じて、再度ブラウザ開いて同じ質問すると、前回より正答率高い回答を提示してくる。不思議。
賢くなると人間で言う先回り理解(気を利かせているつもり)みたいな現象が出るんだよな。特にGemini 3.0 Pro
大事なことなので二回言いました
大事なことなので以下略
コメント欄が予想どおりで安心する
進次郎構文で質問したら一回で済むのだろうか
もはや呪文に近い。
人間の記憶や思考精度が上がる手法は、AIにも通用するのかも?何か他にもあるかな。思考リソースのコスパが良さそうなやつ。
「本当か?」は毎回言っている。
語順の違う日本語でも同様なのだろうか
ポンコツな人間から学習してるだけあって結構ポンコツだよな
一番精度が上がってるのがNameIndex 25th of 50なので、選択肢の中から1つ選ぶ系のタスクで精度向上が期待できそう
スターをください。スターをください。 / 建設的コメント認定はもらえなかったヨ…
回答を貰った後に再質問するのか、1回の送信で同じ質問を2回書くのか、どちら?普通に考えると前者なような気もするけど、後者だとどうなる?
なんか新人詰める時のやり方がそのままLLMに使えるのって闇深いよな
人間でも割と有効な気がするんだよな
現状だと、開発元もこのレベルで仕組みがわからないものなのか...
人間と同じ。まずはざっと概要を回答させる。次に同じ問いをすると骨格を理解した上で細かい部分まで詰めて回答する。
じゃあ内部的に自動でやってくれよ…
大切なことなので二度言いました(既出)。重要な事は繰り返し言うと精度あがるの人間っぽい。
推論を用いない設定での話ですが、人に似ているなあと。人も同じ質問をされたら「あれ?間違い?じゃあもう少し調べてみよう」と考えて行動するし、更に詳しく深堀りしたうえで言い方(説明)を変えたりするので。
「同じ質問を何度もするタイプの人なんだな、丁寧に答えてあげないと」
同じ質問を2回繰り返すとAIの回答の精度が上がるということは、つまり、同じ質問を繰り返すことでAIの回答精度が上がっていくということなんです。
“Googleの研究者らは、同一の質問文を2回連結して入力するだけで、大規模言語モデル(LLM)の回答精度が向上するとする研究成果を発表した。”
"タイトルにNon-ReasoningとあるようにReasoningモデルではほとんど効果ない"
「同じ質問2回入力すると精度が上がるんだぜ」「つまり同じ質問を2回入力すれば精度が上がるってことね」
つまり1+1=200で10倍なのか?
おんなじこと聞いたら賢くなるなんて、ボクももっとお勉強するにゃ!
「2回入力」ではなく、回答された後にもう一度同じ質問した場合は、体感精度が低くなる。たぶん、一度答えたのに、また同じ質問ということは前の回答が気に入らなかったんだな。。と忖度が入るせいだと思ってる。
"例えば、通常はQと入力するところをQQとする。" ガチで進次郎構文見たいいな感じで笑う / 真面目な話、LLMは「続きらしき文章を作る」だけだから、問題解決という明確な目的があるときはより適切な入力があるのだろう
「あなた浮気した?」『は?』「あ な た 浮 気 し た ?」← 人間も精度上がりそう
AI「また同じ質問かよ」
今朝これのYouTube動画を観たのでその仕組も、メリット・デメリットもだいたいわかる。トークンを消費しないってのがいいなと思った。/コンテキスト予測という生成AIの特徴なのでそうなるよねという納得感。
じゃあ最初から2回入力しろよ
だからワイドショーの司会者は大事な事を2回言ってたのか。
これはプロンプトの基礎知識で新たな報告でもないのでは。ペルソナをつけるとかやってない人多いよね。
ブルースの歌詞だな・・・「あの娘は俺を捨てて行っちまったぜ。あの娘は俺を捨てて行っちまったぜ」。このエモーショナルな方法論がAIの正確性をあげるために有効とは、なんか皮肉だな。
チャットの入力ミスきっかけで何となくそんな気がしてた
なんで2回言うねん
"質問文と文脈や選択肢の配置順(question-first / options-first)によって性能差が生じることが知られている。プロンプト反復は、各トークンが他のすべてのトークンを参照しやすくすることで、この差を緩和する"
“質問文と文脈や選択肢の配置順(question-first / options-first)によって性能差が生じることが知られている。プロンプト反復は、各トークンが他のすべてのトークンを参照しやすくすることで、この差を緩和すると説明”
すぐ忘れるもんな。バグ修正させると bug1 -> bug2 -> bug3 -> bug1 を繰り返したり
言いたいことは既に言われていた…
think twiceかよ。/ChatGPTとの応答をそのままGeminiに伝えて、その応答をChatGPTに伝えるのが現状の最高だと思っている。Claudeはすぐ無料の応答は終わりって言うし、Copilotはぴちょんくんでしかない。
この件をGemini に確認したら、同じ用に「<短い指示><詳細説明やデータ><(冒頭と同じ)短い指示>」のサンドイッチ型プロンプト記法を勧められた/プロンプトの"詠唱"方法とか気にせず使える完成度はまだ先か…
大事なことは繰り返されるって学習したのかな
「大事なことなのでもう一度言いますよ!」……AIも人間もあんまり変わらない?
最近のLLMだと同じ入力はキャッシュされているのでは?
<QUERY> を <QUERY><QUERY> にするだけ。推論モデルに近い振る舞いを推論しないモデルにやらせている。Gemini Flash Lite、Claude Haiku、GPT-4.1あたりで試したい
長袖をください。みたいなこと?
大事なことなので
同じ事を2回いうと精度が上がる話より、最初の質問に対してズレた回答だった場合に、最初の回答に含まれた話は忘れてくれor無関係と何度指摘しても引きずる傾向をどうにかする方法を教えて欲しい
LLMは「同じ質問を2回」入力すると精度が上がる──Google研究者ら、プロンプト反復の効果を短報で報告 | Ledge.ai
同じ質問を2回入力すると精度が上がる。同じ質問を2回入力すると精度が上がる。大事なことなので2度言いました
同じ質問2回するだけで精度上がるのは草。人間もAIも二度手間が大事なんだな
みんな思うこと、内部で勝手にやれ。既にやっていること、連鎖推論モデル。
大事なことは二回言わないといけないかな。
タイトルにNon-ReasoningとあるようにReasoningモデルではほとんど効果ないからね。速さとコスパでNon-Reasoning選ぶ場合は効果あるしトークンコストもそんなに上がらないからいい方法ではある。
ふかわりょうメソッド
これ人間相手での「結論から伝えよ」と相似では。時間軸で情報が流し込まれる時にまずコンテキストの大枠が受け手にできてると適宜情報の解釈がリッチになる感じで
大切な事なのでもう一度言います。
体感的にこれは感じることあるな、最初からそう回答してよってやつ
大事なことなので二度聞きました
体感的には、同じ質問を2回入力すると精度がちょっと上がるが、3回同じことを質問すると元のクソ回答に戻るときが多い。
どちらかと言うと最近GPT-5.2が「一つ前の回答をもう一度繰り返す」ことをしてくる。繰り返すことが有益だと思ってるのかなんなのか。
ちゃんと読めてないけど、non-reasoning限定ということは、自分自身の過去の応答を参照する形での実質セルフプロンプト拡張、手動chain-of-thought的な働きをしてるってことなのかな
分かる。Copilot非ログインで、質問後にブラウザ閉じて、再度ブラウザ開いて同じ質問すると、前回より正答率高い回答を提示してくる。不思議。
賢くなると人間で言う先回り理解(気を利かせているつもり)みたいな現象が出るんだよな。特にGemini 3.0 Pro
大事なことなので二回言いました
大事なことなので以下略
コメント欄が予想どおりで安心する
進次郎構文で質問したら一回で済むのだろうか
もはや呪文に近い。
人間の記憶や思考精度が上がる手法は、AIにも通用するのかも?何か他にもあるかな。思考リソースのコスパが良さそうなやつ。
「本当か?」は毎回言っている。
語順の違う日本語でも同様なのだろうか
ポンコツな人間から学習してるだけあって結構ポンコツだよな
一番精度が上がってるのがNameIndex 25th of 50なので、選択肢の中から1つ選ぶ系のタスクで精度向上が期待できそう
スターをください。スターをください。 / 建設的コメント認定はもらえなかったヨ…
回答を貰った後に再質問するのか、1回の送信で同じ質問を2回書くのか、どちら?普通に考えると前者なような気もするけど、後者だとどうなる?
なんか新人詰める時のやり方がそのままLLMに使えるのって闇深いよな
人間でも割と有効な気がするんだよな
現状だと、開発元もこのレベルで仕組みがわからないものなのか...
人間と同じ。まずはざっと概要を回答させる。次に同じ問いをすると骨格を理解した上で細かい部分まで詰めて回答する。
じゃあ内部的に自動でやってくれよ…
大切なことなので二度言いました(既出)。重要な事は繰り返し言うと精度あがるの人間っぽい。
推論を用いない設定での話ですが、人に似ているなあと。人も同じ質問をされたら「あれ?間違い?じゃあもう少し調べてみよう」と考えて行動するし、更に詳しく深堀りしたうえで言い方(説明)を変えたりするので。
「同じ質問を何度もするタイプの人なんだな、丁寧に答えてあげないと」
同じ質問を2回繰り返すとAIの回答の精度が上がるということは、つまり、同じ質問を繰り返すことでAIの回答精度が上がっていくということなんです。
“Googleの研究者らは、同一の質問文を2回連結して入力するだけで、大規模言語モデル(LLM)の回答精度が向上するとする研究成果を発表した。”
"タイトルにNon-ReasoningとあるようにReasoningモデルではほとんど効果ない"
「同じ質問2回入力すると精度が上がるんだぜ」「つまり同じ質問を2回入力すれば精度が上がるってことね」
つまり1+1=200で10倍なのか?
おんなじこと聞いたら賢くなるなんて、ボクももっとお勉強するにゃ!
「2回入力」ではなく、回答された後にもう一度同じ質問した場合は、体感精度が低くなる。たぶん、一度答えたのに、また同じ質問ということは前の回答が気に入らなかったんだな。。と忖度が入るせいだと思ってる。
"例えば、通常はQと入力するところをQQとする。" ガチで進次郎構文見たいいな感じで笑う / 真面目な話、LLMは「続きらしき文章を作る」だけだから、問題解決という明確な目的があるときはより適切な入力があるのだろう
「あなた浮気した?」『は?』「あ な た 浮 気 し た ?」← 人間も精度上がりそう
AI「また同じ質問かよ」
今朝これのYouTube動画を観たのでその仕組も、メリット・デメリットもだいたいわかる。トークンを消費しないってのがいいなと思った。/コンテキスト予測という生成AIの特徴なのでそうなるよねという納得感。
じゃあ最初から2回入力しろよ
だからワイドショーの司会者は大事な事を2回言ってたのか。
これはプロンプトの基礎知識で新たな報告でもないのでは。ペルソナをつけるとかやってない人多いよね。
ブルースの歌詞だな・・・「あの娘は俺を捨てて行っちまったぜ。あの娘は俺を捨てて行っちまったぜ」。このエモーショナルな方法論がAIの正確性をあげるために有効とは、なんか皮肉だな。
チャットの入力ミスきっかけで何となくそんな気がしてた
なんで2回言うねん
"質問文と文脈や選択肢の配置順(question-first / options-first)によって性能差が生じることが知られている。プロンプト反復は、各トークンが他のすべてのトークンを参照しやすくすることで、この差を緩和する"
“質問文と文脈や選択肢の配置順(question-first / options-first)によって性能差が生じることが知られている。プロンプト反復は、各トークンが他のすべてのトークンを参照しやすくすることで、この差を緩和すると説明”
すぐ忘れるもんな。バグ修正させると bug1 -> bug2 -> bug3 -> bug1 を繰り返したり
言いたいことは既に言われていた…
think twiceかよ。/ChatGPTとの応答をそのままGeminiに伝えて、その応答をChatGPTに伝えるのが現状の最高だと思っている。Claudeはすぐ無料の応答は終わりって言うし、Copilotはぴちょんくんでしかない。
この件をGemini に確認したら、同じ用に「<短い指示><詳細説明やデータ><(冒頭と同じ)短い指示>」のサンドイッチ型プロンプト記法を勧められた/プロンプトの"詠唱"方法とか気にせず使える完成度はまだ先か…
大事なことは繰り返されるって学習したのかな
「大事なことなのでもう一度言いますよ!」……AIも人間もあんまり変わらない?
最近のLLMだと同じ入力はキャッシュされているのでは?
<QUERY> を <QUERY><QUERY> にするだけ。推論モデルに近い振る舞いを推論しないモデルにやらせている。Gemini Flash Lite、Claude Haiku、GPT-4.1あたりで試したい
長袖をください。みたいなこと?
大事なことなので
同じ事を2回いうと精度が上がる話より、最初の質問に対してズレた回答だった場合に、最初の回答に含まれた話は忘れてくれor無関係と何度指摘しても引きずる傾向をどうにかする方法を教えて欲しい