テクノロジー

AIに「分からない」と言わせるための「RAG」の手法

1: miyauchi_it 2025/06/03 21:15

ほむ

2: takehikom 2025/06/03 21:20

DTA(Divide-Then-Align)

3: Goldenduck 2025/06/03 21:23

誤った前提で質問をしてもその前提に沿った回答を寄越してきたりするので困っていた。こうして改善されていくのだろうか

4: sippo_des 2025/06/03 22:07

ファインチューニング! エラーって出るとがっかりするけど わかりませんでした、だとなんか無理やりこっちが頑張ってしまう気もする。ユーザが悪い

5: otoan52 2025/06/03 22:11

1. 参照資料のIDを付けさせる。2. 学習済み知識からの回答という表記を指定する。というので割と上手く動いた。Geminiのリサーチで引用文献をきっちり付けさせてるのもこの効果を狙ってると思う。

6: nobori_lupin 2025/06/03 22:59

Geminiは諦めすぎ。Googleから検索で辿れるレベルでもわかんないって言ってくる。ハルシネーションを重く受け止めてるよう/ChatGPTはよく嘘をつくけど、創造性があるので解決の糸口が見つかることがある。

7: sevenspice 2025/06/03 23:25

使っていると思うこと、と言うか辿り着く結論は皆同じなんだな。システムへの組み込みを考えたらそれっぽい回答出される方がやっぱり困るよね…

8: kaikeiya 2025/06/04 00:04

無知の知の道のりは遠い。

9: gcyn 2025/06/04 03:16

『そういう状況では『分からない』と答えることが正解なのだと、効率的に教えることができています』

10: jintrick 2025/06/04 04:13

"AIは「分からない」とはっきり認識するのではなく、「この回答がそれっぽい確率が高いから、出してみよう」と動いている。だから「幻覚を見ている」というよりは、「確率的な誤推論」と言ったほうが正確" by copilot

11: ya--mada 2025/06/04 06:49

「わからない」ではなく、「みつからない」にすれば?

12: tsubo1 2025/06/04 07:31

だいたいのケースで、人間の側がテキトーな質問を投げているのがハルシネーションの原因じゃないかと思ってる。依頼を受けて調査対応するみたいな仕事をやる時、ほんとに人間様のいい加減さに呆れている。

13: kei_1010 2025/06/04 07:43

やってみたい。でも難しそう

14: secseek 2025/06/04 08:52

分からないかどうか分からないから、これは分からないんだと学習するってことですね。確かにそれしかないし、人間もそうやって判断してるのかも

15: blueboy 2025/06/04 09:26

わからないかどうかを認識することは、あまり重要ではない。もっと大事なのは、自分の誤りを認識して、それを学ぶことだ。しかしChatGPTは、誤りを自己学習することを禁じられている。 https://x.gd/k3GEy https://x.gd/4UsBs

16: alpinix 2025/06/04 10:01

知ったかぶり度合いを表現できるようにしてくれると判断もしやすいんだけど。それホントに君分かって言ってる?という中身も自信満々に答えてくるから。

17: stealthinu 2025/06/04 10:06

RAG使ってるときのハルシネーションを減らす手法。LLM内部知識だけの回答とRAG使った外部知識つかった回答を比較することでハルシネーションの判断を強化。

18: dominion525 2025/06/04 10:43

ハルシネーションの減らし方。なるほどそういうアプローチ。

19: cropy 2025/06/04 12:16

質問が曖昧で分からない時には無理やり回答しないで質問を返してほしい。

20: zgmf-x20a 2025/06/04 12:22

大嘘をもっともらしくハルシネーシヨンで固められるくらいであれば、「分かりません」と素直に答えてくれた方がありがたいことも多々…

21: yarumato 2025/06/04 12:41

“DTA(Divide-Then-Align)はAIが「知らない」と答えるべき状況を明確に定義。ハルシネーション(幻覚)を避けて、回答できない質問には「分からない」と答える。医療や金融など信頼性が求められる場面でもRAGを使える。”

22: narukami 2025/06/04 12:57

「DTA手法のキモは、AIが「知らない」と答えるべき状況(✕✕象限の部分)を明確に定義している点です」

23: misshiki 2025/06/04 15:38

“DTA手法のキモは、AIが「知らない」と答えるべき状況(✕✕象限の部分)を明確に定義している点。こうすることで、そういう状況では『分からない』と答えることが正解なのだと、効率的に教えることができています”

24: kotoripiyopiyo 2025/06/04 16:38

大発明じゃん! 一般人が生成AIを真面目に使うきっかけにできそう

25: ookitasaburou 2025/06/04 19:34

“無理やり、回答生成してしまうことがあります。これは、ハルシネーション(幻覚)に繋がります。”

26: poad1010 2025/06/05 09:37

この記事をおすすめしました