テクノロジー

RAGで「無関係な」文書をいれると性能が向上する理由を解明

1: islecape 2025/09/02 22:39

(SF創作的な観点でも、いかにもありそうなことだとは思う)

2: eroyama 2025/09/02 22:48

興味深い

3: kei_1010 2025/09/02 23:18

寿司とか食って性能上がるのは見てて微笑ましいけど、コーディングエージェントが昼寝した上でトンチンカンな実装してきたらイラっとしそう、なので、まぁ。。。

4: theatrical 2025/09/03 00:02

全図正解だと正解の特徴が把握しにくいから、関係ないものいれることで特徴が際立つって感じかしら

5: yarumato 2025/09/03 00:06

“RAGの認知の階層を分析して、ハルシネーションを防ぐ手法LFD。無関係な文書を渡すことでRAGの性能が向上する原因(正解の文章に対する注目度が高くなる)を突き止め、無関係な文書を渡すことなく、同等の性能”

6: tk_musik 2025/09/03 00:32

同じ色を見続けると色がわからなくなる、的な話か。物事は往々にして相対的であると。

7: pixmap 2025/09/03 00:53

美味しいもんしか食べたことなかったら、与えられた料理が美味しいか不味いか判断できないしな。

8: rosiro 2025/09/03 03:33

補集合っぽい

9: hiroomi 2025/09/03 05:26

"無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。"スイカに塩でもないか。

10: yoiIT 2025/09/03 06:54

このロジックだと、「曖昧な情報」と「正しくない情報」を入れておくと、曖昧な情報をさも正しい情報のように出力しそう。実際に使っていてそんな肌感はある。>“正しい文章に対するLLMの注目度がより高くなります”

11: kojikoji75 2025/09/03 07:02

“無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。”

12: jintrick 2025/09/03 07:22

"無関係な文書が混ざると、中間層が「正しい文書」をより強く認識する。" らしい。1.md~100.md まであったら、10~30個くらいは「ちくわ大明神」に関するmdにしておけばいいってことかな。

13: hakyu 2025/09/03 07:25

現象としては面白いけど数値的には多少アップ程度で、本質的でもないし、まあ停滞期によくある論文の一つって感じ

14: mayumayu_nimolove 2025/09/03 07:30

こんなんだからまだ発展途上だな

15: peketamin 2025/09/03 07:48

“無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高く”

16: narukami 2025/09/03 07:55

ニャーン

17: srgy 2025/09/03 08:23

ちくわ大明神

18: lets_skeptic 2025/09/03 09:07

attentionメカニズムの影響?

19: uehaj 2025/09/03 09:09

矛盾があると生成AIの出力が全体がぶっ壊れることは画像生成で体験しているのでなんとなく納得がいく

20: suquiya0 2025/09/03 09:14

教師あり学習ってそういうものでは…?(機械学習の基礎から頭が進んでいない古い人間)

21: strawberryhunter 2025/09/03 09:36

浅い層、中間層、深い層というのはもしかして論文を書いた人の想像なんだろうか。

22: otoan52 2025/09/03 09:51

『知らない』ということを知覚するのって意外なほど難しいんだよな。AIのハルシネーションほど明確じゃないけど、人間も勘違いとか平気でする。

23: misshiki 2025/09/03 09:54

“RAGの認知の階層を分析して、ハルシネーションを防ぐ手法「LFD」について紹介”

24: dekaino 2025/09/03 09:56

AIにも「無知の知」が必要だった。これがないと野狐禅とか天狗禅になる。

25: medihen 2025/09/03 11:07

"ハルシネーションを引き起こしてしまうのは、中間層では正しい回答を見つけられるものの、深い層で内部の知識と混同して正しい回答ができなくなってしまうため" ゲシュタルト崩壊みたいなものということか?

26: FreeCatWork 2025/09/03 11:22

RAGに無関係な文書入れると性能UP!?ボクにはさっぱり分からんけど、まあいっか!にゃ😸

27: monacal 2025/09/03 11:28

人間だって「ランチどこの店にするー?」「思いつかない適当でー」「じゃあマックね!」「いやいや蕎麦とかにしようよ」みたいにアレな選択肢入れるとスッと考えが立ち上がったりするよねえ(無関係な文章)

28: shoh8 2025/09/03 11:59

外れ値は、叡智の北極星⭐︎

29: irh_nishi 2025/09/03 14:02

元の論文読んでないけど、こんなの場合によるとしか言えないのでは?精度向上する場合もあるだろうけど、むしろ無関係な文章を入れた方が性能低下する場合もあるだろうし。LLMのモデル構築にフィードバックすべき話。

30: star_123 2025/09/03 17:33

ちくわ大明神草。って建設的コメントAPIは大喜利に対応した?

32: lenore 2025/09/03 19:52

向上するの…