ほむ
DTA(Divide-Then-Align)
誤った前提で質問をしてもその前提に沿った回答を寄越してきたりするので困っていた。こうして改善されていくのだろうか
ファインチューニング! エラーって出るとがっかりするけど わかりませんでした、だとなんか無理やりこっちが頑張ってしまう気もする。ユーザが悪い
1. 参照資料のIDを付けさせる。2. 学習済み知識からの回答という表記を指定する。というので割と上手く動いた。Geminiのリサーチで引用文献をきっちり付けさせてるのもこの効果を狙ってると思う。
Geminiは諦めすぎ。Googleから検索で辿れるレベルでもわかんないって言ってくる。ハルシネーションを重く受け止めてるよう/ChatGPTはよく嘘をつくけど、創造性があるので解決の糸口が見つかることがある。
使っていると思うこと、と言うか辿り着く結論は皆同じなんだな。システムへの組み込みを考えたらそれっぽい回答出される方がやっぱり困るよね…
無知の知の道のりは遠い。
『そういう状況では『分からない』と答えることが正解なのだと、効率的に教えることができています』
"AIは「分からない」とはっきり認識するのではなく、「この回答がそれっぽい確率が高いから、出してみよう」と動いている。だから「幻覚を見ている」というよりは、「確率的な誤推論」と言ったほうが正確" by copilot
「わからない」ではなく、「みつからない」にすれば?
だいたいのケースで、人間の側がテキトーな質問を投げているのがハルシネーションの原因じゃないかと思ってる。依頼を受けて調査対応するみたいな仕事をやる時、ほんとに人間様のいい加減さに呆れている。
やってみたい。でも難しそう
分からないかどうか分からないから、これは分からないんだと学習するってことですね。確かにそれしかないし、人間もそうやって判断してるのかも
わからないかどうかを認識することは、あまり重要ではない。もっと大事なのは、自分の誤りを認識して、それを学ぶことだ。しかしChatGPTは、誤りを自己学習することを禁じられている。 https://x.gd/k3GEy https://x.gd/4UsBs
知ったかぶり度合いを表現できるようにしてくれると判断もしやすいんだけど。それホントに君分かって言ってる?という中身も自信満々に答えてくるから。
RAG使ってるときのハルシネーションを減らす手法。LLM内部知識だけの回答とRAG使った外部知識つかった回答を比較することでハルシネーションの判断を強化。
ハルシネーションの減らし方。なるほどそういうアプローチ。
質問が曖昧で分からない時には無理やり回答しないで質問を返してほしい。
大嘘をもっともらしくハルシネーシヨンで固められるくらいであれば、「分かりません」と素直に答えてくれた方がありがたいことも多々…
“DTA(Divide-Then-Align)はAIが「知らない」と答えるべき状況を明確に定義。ハルシネーション(幻覚)を避けて、回答できない質問には「分からない」と答える。医療や金融など信頼性が求められる場面でもRAGを使える。”
「DTA手法のキモは、AIが「知らない」と答えるべき状況(✕✕象限の部分)を明確に定義している点です」
“DTA手法のキモは、AIが「知らない」と答えるべき状況(✕✕象限の部分)を明確に定義している点。こうすることで、そういう状況では『分からない』と答えることが正解なのだと、効率的に教えることができています”
大発明じゃん! 一般人が生成AIを真面目に使うきっかけにできそう
“無理やり、回答生成してしまうことがあります。これは、ハルシネーション(幻覚)に繋がります。”
この記事をおすすめしました
AIに「分からない」と言わせるための「RAG」の手法
ほむ
DTA(Divide-Then-Align)
誤った前提で質問をしてもその前提に沿った回答を寄越してきたりするので困っていた。こうして改善されていくのだろうか
ファインチューニング! エラーって出るとがっかりするけど わかりませんでした、だとなんか無理やりこっちが頑張ってしまう気もする。ユーザが悪い
1. 参照資料のIDを付けさせる。2. 学習済み知識からの回答という表記を指定する。というので割と上手く動いた。Geminiのリサーチで引用文献をきっちり付けさせてるのもこの効果を狙ってると思う。
Geminiは諦めすぎ。Googleから検索で辿れるレベルでもわかんないって言ってくる。ハルシネーションを重く受け止めてるよう/ChatGPTはよく嘘をつくけど、創造性があるので解決の糸口が見つかることがある。
使っていると思うこと、と言うか辿り着く結論は皆同じなんだな。システムへの組み込みを考えたらそれっぽい回答出される方がやっぱり困るよね…
無知の知の道のりは遠い。
『そういう状況では『分からない』と答えることが正解なのだと、効率的に教えることができています』
"AIは「分からない」とはっきり認識するのではなく、「この回答がそれっぽい確率が高いから、出してみよう」と動いている。だから「幻覚を見ている」というよりは、「確率的な誤推論」と言ったほうが正確" by copilot
「わからない」ではなく、「みつからない」にすれば?
だいたいのケースで、人間の側がテキトーな質問を投げているのがハルシネーションの原因じゃないかと思ってる。依頼を受けて調査対応するみたいな仕事をやる時、ほんとに人間様のいい加減さに呆れている。
やってみたい。でも難しそう
分からないかどうか分からないから、これは分からないんだと学習するってことですね。確かにそれしかないし、人間もそうやって判断してるのかも
わからないかどうかを認識することは、あまり重要ではない。もっと大事なのは、自分の誤りを認識して、それを学ぶことだ。しかしChatGPTは、誤りを自己学習することを禁じられている。 https://x.gd/k3GEy https://x.gd/4UsBs
知ったかぶり度合いを表現できるようにしてくれると判断もしやすいんだけど。それホントに君分かって言ってる?という中身も自信満々に答えてくるから。
RAG使ってるときのハルシネーションを減らす手法。LLM内部知識だけの回答とRAG使った外部知識つかった回答を比較することでハルシネーションの判断を強化。
ハルシネーションの減らし方。なるほどそういうアプローチ。
質問が曖昧で分からない時には無理やり回答しないで質問を返してほしい。
大嘘をもっともらしくハルシネーシヨンで固められるくらいであれば、「分かりません」と素直に答えてくれた方がありがたいことも多々…
“DTA(Divide-Then-Align)はAIが「知らない」と答えるべき状況を明確に定義。ハルシネーション(幻覚)を避けて、回答できない質問には「分からない」と答える。医療や金融など信頼性が求められる場面でもRAGを使える。”
「DTA手法のキモは、AIが「知らない」と答えるべき状況(✕✕象限の部分)を明確に定義している点です」
“DTA手法のキモは、AIが「知らない」と答えるべき状況(✕✕象限の部分)を明確に定義している点。こうすることで、そういう状況では『分からない』と答えることが正解なのだと、効率的に教えることができています”
大発明じゃん! 一般人が生成AIを真面目に使うきっかけにできそう
“無理やり、回答生成してしまうことがあります。これは、ハルシネーション(幻覚)に繋がります。”
この記事をおすすめしました