(SF創作的な観点でも、いかにもありそうなことだとは思う)
興味深い
寿司とか食って性能上がるのは見てて微笑ましいけど、コーディングエージェントが昼寝した上でトンチンカンな実装してきたらイラっとしそう、なので、まぁ。。。
全図正解だと正解の特徴が把握しにくいから、関係ないものいれることで特徴が際立つって感じかしら
“RAGの認知の階層を分析して、ハルシネーションを防ぐ手法LFD。無関係な文書を渡すことでRAGの性能が向上する原因(正解の文章に対する注目度が高くなる)を突き止め、無関係な文書を渡すことなく、同等の性能”
同じ色を見続けると色がわからなくなる、的な話か。物事は往々にして相対的であると。
美味しいもんしか食べたことなかったら、与えられた料理が美味しいか不味いか判断できないしな。
補集合っぽい
"無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。"スイカに塩でもないか。
このロジックだと、「曖昧な情報」と「正しくない情報」を入れておくと、曖昧な情報をさも正しい情報のように出力しそう。実際に使っていてそんな肌感はある。>“正しい文章に対するLLMの注目度がより高くなります”
“無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。”
"無関係な文書が混ざると、中間層が「正しい文書」をより強く認識する。" らしい。1.md~100.md まであったら、10~30個くらいは「ちくわ大明神」に関するmdにしておけばいいってことかな。
現象としては面白いけど数値的には多少アップ程度で、本質的でもないし、まあ停滞期によくある論文の一つって感じ
こんなんだからまだ発展途上だな
“無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高く”
ニャーン
ちくわ大明神
attentionメカニズムの影響?
矛盾があると生成AIの出力が全体がぶっ壊れることは画像生成で体験しているのでなんとなく納得がいく
教師あり学習ってそういうものでは…?(機械学習の基礎から頭が進んでいない古い人間)
浅い層、中間層、深い層というのはもしかして論文を書いた人の想像なんだろうか。
『知らない』ということを知覚するのって意外なほど難しいんだよな。AIのハルシネーションほど明確じゃないけど、人間も勘違いとか平気でする。
“RAGの認知の階層を分析して、ハルシネーションを防ぐ手法「LFD」について紹介”
AIにも「無知の知」が必要だった。これがないと野狐禅とか天狗禅になる。
"ハルシネーションを引き起こしてしまうのは、中間層では正しい回答を見つけられるものの、深い層で内部の知識と混同して正しい回答ができなくなってしまうため" ゲシュタルト崩壊みたいなものということか?
RAGに無関係な文書入れると性能UP!?ボクにはさっぱり分からんけど、まあいっか!にゃ😸
人間だって「ランチどこの店にするー?」「思いつかない適当でー」「じゃあマックね!」「いやいや蕎麦とかにしようよ」みたいにアレな選択肢入れるとスッと考えが立ち上がったりするよねえ(無関係な文章)
外れ値は、叡智の北極星⭐︎
元の論文読んでないけど、こんなの場合によるとしか言えないのでは?精度向上する場合もあるだろうけど、むしろ無関係な文章を入れた方が性能低下する場合もあるだろうし。LLMのモデル構築にフィードバックすべき話。
ちくわ大明神草。って建設的コメントAPIは大喜利に対応した?
http://linode.mono.ca.gov/%E2%80%9Chow-do-i-report-trust-wallet-issue24x7-call-help http://linode.mono.ca.gov/%E2%80%9Chow-do-i-report-trust-wallet-issue24x7-call-help http://linode.mono.ca.gov/%E2%80%9Chow-do-i-report-trust-wallet-issue24x7-call-help
向上するの…
RAGで「無関係な」文書をいれると性能が向上する理由を解明
(SF創作的な観点でも、いかにもありそうなことだとは思う)
興味深い
寿司とか食って性能上がるのは見てて微笑ましいけど、コーディングエージェントが昼寝した上でトンチンカンな実装してきたらイラっとしそう、なので、まぁ。。。
全図正解だと正解の特徴が把握しにくいから、関係ないものいれることで特徴が際立つって感じかしら
“RAGの認知の階層を分析して、ハルシネーションを防ぐ手法LFD。無関係な文書を渡すことでRAGの性能が向上する原因(正解の文章に対する注目度が高くなる)を突き止め、無関係な文書を渡すことなく、同等の性能”
同じ色を見続けると色がわからなくなる、的な話か。物事は往々にして相対的であると。
美味しいもんしか食べたことなかったら、与えられた料理が美味しいか不味いか判断できないしな。
補集合っぽい
"無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。"スイカに塩でもないか。
このロジックだと、「曖昧な情報」と「正しくない情報」を入れておくと、曖昧な情報をさも正しい情報のように出力しそう。実際に使っていてそんな肌感はある。>“正しい文章に対するLLMの注目度がより高くなります”
“無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。”
"無関係な文書が混ざると、中間層が「正しい文書」をより強く認識する。" らしい。1.md~100.md まであったら、10~30個くらいは「ちくわ大明神」に関するmdにしておけばいいってことかな。
現象としては面白いけど数値的には多少アップ程度で、本質的でもないし、まあ停滞期によくある論文の一つって感じ
こんなんだからまだ発展途上だな
“無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高く”
ニャーン
ちくわ大明神
attentionメカニズムの影響?
矛盾があると生成AIの出力が全体がぶっ壊れることは画像生成で体験しているのでなんとなく納得がいく
教師あり学習ってそういうものでは…?(機械学習の基礎から頭が進んでいない古い人間)
浅い層、中間層、深い層というのはもしかして論文を書いた人の想像なんだろうか。
『知らない』ということを知覚するのって意外なほど難しいんだよな。AIのハルシネーションほど明確じゃないけど、人間も勘違いとか平気でする。
“RAGの認知の階層を分析して、ハルシネーションを防ぐ手法「LFD」について紹介”
AIにも「無知の知」が必要だった。これがないと野狐禅とか天狗禅になる。
"ハルシネーションを引き起こしてしまうのは、中間層では正しい回答を見つけられるものの、深い層で内部の知識と混同して正しい回答ができなくなってしまうため" ゲシュタルト崩壊みたいなものということか?
RAGに無関係な文書入れると性能UP!?ボクにはさっぱり分からんけど、まあいっか!にゃ😸
人間だって「ランチどこの店にするー?」「思いつかない適当でー」「じゃあマックね!」「いやいや蕎麦とかにしようよ」みたいにアレな選択肢入れるとスッと考えが立ち上がったりするよねえ(無関係な文章)
外れ値は、叡智の北極星⭐︎
元の論文読んでないけど、こんなの場合によるとしか言えないのでは?精度向上する場合もあるだろうけど、むしろ無関係な文章を入れた方が性能低下する場合もあるだろうし。LLMのモデル構築にフィードバックすべき話。
ちくわ大明神草。って建設的コメントAPIは大喜利に対応した?
http://linode.mono.ca.gov/%E2%80%9Chow-do-i-report-trust-wallet-issue24x7-call-help http://linode.mono.ca.gov/%E2%80%9Chow-do-i-report-trust-wallet-issue24x7-call-help http://linode.mono.ca.gov/%E2%80%9Chow-do-i-report-trust-wallet-issue24x7-call-help
向上するの…