シンキングモードでProにしてWEB検索アリにすればいい気もする
perplexityを使えば良いだけな気がする。無論URLは逐次表示させて。調べ物にGPTは向いてない。AtlasにFeloとPerplexity食わせてまとめたり(それでも参照先全部読まなきゃだが)ソースを増やしてくれるだけ。
ずっと前からやってた。「ファクトベースで考察・分析・評価する際には明示ファクトを用い、文脈ファクトは信頼度が高い情報のみ採用する」と記述すると、さらに安定する
仕込んだGPTsを作っておくと便利かもね
「良い質問ですね」の池上彰モードと、「諸説あります」のチコちゃんモードをデフォルトで厳禁にしておいてほしい
調べ物であればパープレで事足りる
ネガティブプロンプト。
一時的な現象。いずれ解決する問題
「知ってるか知らないか知らない」情報には効かないんだよなぁ。与えた資料から答えさせるように制限するのが結局ギリギリ信用できる線だと思う。うろ覚えの知識に頼るべきじゃない。
改良版をマイ GPT にして使ってみた。「私の環境では同一内容のExcelを直接開けず <中略> またPDFから転記するには誤記のリスクが高く」みたいな事を言って「諦める」挙動が見られた。とても良い。
知らない事は知らないと言えどれだけ時間かけても良いから正確な情報精査して来いと伝えるだけでかなり精度上がる。なお自分が把握してる情報に限る。
嘘つくのだるいよなぁ
ファクトベースの情報が欲しいならAIを使わないほうがいいような…
必要なのは手順の指定であって、今時ロール指定は無駄やろ。回答スタイルやトーンの維持、感情や人格が必要なら良いけどそれなら「あなたは私の母になってくれたかもしれない女性です」とでも指定しとけ
“この文章をChatGPTに送るだけで、回答のトーンが大きく変化します。 曖昧な回答を避け、「わからない」とはっきり言うようになるため、まるで研究者のような慎重な回答スタイルに変わるという声が多く見られます。”
実際にやらなきゃ分からない、の曖昧さが今の生成aiなので、やってみよのブクマ。
ここで新サービス「はてな人力ファクトチェック」を立ち上げる時ですぞ😍
Instructionの中身は悪くないがThinking固定ならともかく基本的に結論書かせるのは後にしような/"出典が自動的に挿入されるようになった" 検索されなかったら嘘出典書かれるやつ/あぁ、みやっちコレか……
最初からやってるけどそれでも嘘つくよ。勝手に推測するなと言ってもするし、推測は推測と行頭にかけと言ってもすぐ無効になる。最終的にはいかいいえだけで答えろってなるからとっとと別のLLM使った方がいい。
LLMがどうやって出力してるか知ってたらこんな事言わないだろうに
「プロンプトエンジニアリングはいずれ不要に」と楽観されてたが、OpenAIやGoogleとかのエージェントの核はシステムプロンプトだし、人間力とか社会性とやらもプロンプト。情報を限定する言語スキルからは逃れられない
嘘をつく可能性が少しでもある限り、信頼性が多少高くなったところで、(出典が表示されてしやすくなるにせよ)人力のファクトチェックが必須という意味で、使い方があまり変わらないような気がするが。
人間がプロンプトで一喜一憂するの、馬鹿馬鹿しく思えてしまう
使い方次第かもだけど、最近はソースあり回答欲しい時はperplexityよりGoogleのAIモード検索の方が使えるなと思い出してる、特に日本語で使う時は(日本語でも英語サイトを優先でといえばちゃんとやってくれる)。
広告配置がエグい
基本中の基本
へぇ、AIさんが嘘つかなくなるなんて、ボクも真面目になるにゃ!
“「ChatGPTが知らないことも“自信満々に答える”」問題に一石”
人力検索はてなの回答のコツに似てますね。今のAIみたいな事をやってたんだなあの頃。
perplexity使えって言ってる人が居るが冗談じゃねえぞ。あれの有料プラン使ってるが、何度ここに書かれてる以上に詳しく『絶対に嘘を吐くな』と言っても捏造しやがる。検索しろと言ってもサボるし。本当に信用できねえ
「~な人、今すぐ~して」という胡散臭い言い回しが気になるが、事実と推測を分けてと書くだけで効果があるので、このプロンプトも効果はあるだろう。最近はWeb検索してと言えば取得した情報をベースに答える。
ChatGPTは"嘘のつき方"を教えてくれるから良いのだよ。
最近は参考リンクを付けて回答してくることが多いので、そこまで困ることは少なくなったような。参考リンク先が嘘書いてたらどうすんの?みたいな問題はあれど
それでウソがなくなるならチャットbot提供者がシステムプロンプトとして採用してるだろうに...
少し前に見たなと思ったら先月の投稿か
「『情報が少なくてわからない』という情報も有用です」を付け加えるともうちょっと良くなる印象よ
「投稿者のmiyachi_ai氏はNHKでも特集されたAI教育の専門家なので、このプロンプトは信頼の置けるものといえるでしょう」物事の適否を判断するのに一番向いてない人の言いぐさじゃん。
インディアン うそつかない よいこになれる
これも当てにならない記事か……
“ルール”
とりあえず自分にこのサイトは必要ないという知見は得た
「嘘をつかない」という倫理的姿勢は、人間だと当然に持ってる(と暗黙にみんな思ってる)が、AIはいちいち指示しないと(しても)持たない、の意だが、人間でも実はそのようなAI並に倫理的姿勢が欠如してる人はザラ
わろた。ツールを介在させず、プロンプトみたいな口八丁でやれると信じている人がいるくらいには、生成AIは嘘をつくのが上手くなってきているわけだな。
「ソースをくれ」でよくね
“あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。 以下のルールに従って回答してください。 # ルール – わからない/未確認は「わからない」と明言すること – 推測は「推測ですが」と明示する
うそ、おおげさ、まぎらわしいって公共広告機構だったと思うけどそういうのほんとに増えたね
確率は上がっても、現在のAIは原理上ハルシネーションを防げないのでは。そもそもAIが嘘をつこうと思って嘘をついてるのではない
それで嘘つかなくなるなら、開発者がとっくにやってるから。嘘つかなくなるプロンプトなんてないのだよ
言われなきゃデフォで嘘つくって笑笑笑 常に明確な答えを教えてほしいって需要があるんだね、、
ファクトベースAIプロンプトとか、たいそうな名前つけたな
パープレで良いだろ笑
いちいちプロンプト使うぐらいならPerplexityに課金しなさいよ。それでも結構ウソをつくのでソースを出すまで激詰めしてますけどね。
前からやってるやつで、最近は口調と整理方法がちょい変わる程度であんま利かないやつ。昔はそれなりに効果あったけど、今は入れなくてもそこそこになったのであんまりこれがあろうとなかろうと変わらない感じに
もっといい方法がある。複数のAIを使って、対比することだ。ChatGPT、Gemini、Perplexity の三つは必須。さらに Grok をつけてもいい。答え合わせをして比較すると、嘘は見抜ける。今のところ ChatGPT の嘘が一番少ない。
AIに正確な情報を出させようと、何時間も格闘したあげく、自分で論文を読んだら、10分で確実性と質の高い情報が手に入った、というパターンがあまりにも多すぎる。
経験上、そんな都合がいいことはない
半年くらい前に似たようなのを投稿したけど、正直トークン数やコンテキスト長が長くなると効果が薄くなるものではあるので、ワンショット検索系って感じなんだよな https://x.com/_inductor_/status/1943521149096263996
PerplexityもChatGPTも課金しているが、正直両者の差は今ほぼない。ChatGPTも情報ソースを添付してくれる。
LLMに限らず提示された情報から嘘を減らすより、嘘を見抜いたり直感したりする技術を身につけるほうが効率的だし実践的
うそはうそであると見抜ける人でないと(AIを使うのは)難しい
「AIがハルシネーションしても自分では違和感をとらえられないな」という分野では(重要な)調べ物をAI任せにするのはそもそも避ける、が吉。
"知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)"の"対策として生まれたのが、以下のファクトベースAIプロンプト"
「AIが嘘をつかなくなる」というよりも、 「AIを的確に使う知恵」を教えてくれる記事。
嘘つくのは仕方ないとして、指摘しても別に間違えませんけど?って態度だからイライラしてしまう
親の顔より見た「心を入れ替えたAI」の嘘。
こんなものはユーザが適用するものではなく、システムに含まれるべきもの。これでも学習させた内容によっては嘘をつくだろうし、見抜くには知識が必要。判断を外注する姿勢が進めば問題はより大きくなるだろうね。
よーし良い子だ…
そもそもAIの学習元になるWeb上の文章の真偽判定が完全に可能ならば出来るかもしれないというお話。Webの文章が真実かどうかなんて誰が分かる?
人間のアウトプットを学習したら嘘をつくのは自然なこと。生成AIは無限嘘生成器になっている。真偽を確かめるのに膨大な時間がかかる
最近嘘つき過ぎて手に負えなかったのでパーソナライズをこれに設定してみたら改善した様に思える。
チャットAIは、答えが遅い、わからないと答えるを徹底的に回避する仕組みだから、嘘だらけになるのは致し方なし。 つまり田分けの満足度を最大化する設計で、ビジネスとしては正解では?
人間って「質問して回答がある」こと自体に快感があるんだな…ってLLM関連のブクマ見るたびに感じる。資料見る方が確実だけど、質問する方が手軽なうえに快感があるから…。
人間だって嘘をつくし、裏をとれって言ったら慎重に振る舞うし、同じでしょ。
って思ったでしょ?・・・ウソだよ〜〜〜ん!ってAIに思われてそう。
知らない人だ, けどいや,,,'万人に通じる方法'って時点で嘘でしかないだろ.. gptのグレードもあるし context sizeとかどこまで長文で会話したとか...
あんまり関係ないけど日付書かせるのはいいな
ハルシネーションという言葉が出たときからずっとこの手のTIPS笑が出てくるが全然LLMの仕組みわかってないだろ。こんなのブクマしてトレンドにあげるブクマカがアホ
私は賞を受賞したことになっているので治らない方がうれしいかも(笑)
AI嘘をつこうとして嘘をついているわけではないので、これだけで嘘をつかなくなるわけがない
嘘つこうと思ってついてない嘘にはたぶん効かないし、AIがついているのはそういう嘘。
perplexityは一年前ならともかく今現在で使うには、有料版でも嘘デタラメが多すぎると思うが。
気の所為。Deep Research以外に道は無い。 perplexityは全然嘘つく。
「嘘をついているか?」と訊くと正直者も嘘つきも「いいえ」と答えるって知ってる?
「ファクトベース」にしたいなら、ChatGPTの出力を信用せずに自分で裏取りすることが大切。ブログ記事じゃなく公的一次ソースを調べる。「ファクトベース風」で良いならプロンプトに適当に書いとけばいい。
ダウト/タイトルよく見ると東スポのような「?」の見出し、本文には「より確実」と書いてあるな…
出力されたものを検証しないなら何やってもダメだよ。裏返せば、AIの回答を検証するために別のAIセッションを開いて調査する
漠然とした状態で自己判断をする感性(機能)を持ち合せてないんだから無理だろ 人間はそこの違和感があって情報の擦り合わせするんだから 量子コンピューターを待て
回答に虚偽が混じっていた場合は嘘だよ~んとテヘペロして下さい
まとも率高めのyahoo知恵袋くらいに思わないと。
なんでこんなものがこんなブクマされてんの!?って思ったけど炎上気味でホッとした。ワッショイ
で、その”ファクト”とやらは誰が決めるの?
マシにはなるけど嘘つかないは言い過ぎ。そもそもの作りが確率と統計なのだから捏造ゼロにするには別のやり方も組み込まないといけない
Deep Research使えよ
これは使える
少なくとも「出典を明示して」って指示すると個別に原文へのリンク貼ってくれるようにはなるよね。
リサーチャーエージェントとファクトチェックエージェントを作ればえぇ
ChatGPT5.0 Thinkingになってからそこまで気にならないけどな。
原理的にはゼロにはできないので、こういうのはユーザーに提示する前の初期プロンプトに入ってたりしそうだが…。あと、減らせるけど無くならないよね、原理的に
この程度じゃ全然デタラメ並べてくるぞ……
求めるべきは根拠と主張の適切な分解じゃないのか。このアプローチでは、ChatGPTが嘘つきになるか、使うユーザーが嘘つきになるかの二択になるよ。
こういう嘘つきが嘘の記事を書くのもプロンプトエンジニアリングの力で捻じ伏せたいんですが
嘘をつくなは嘘をついてる自覚があれば有効だけどAIは嘘をついてる自覚ないでしょ。学習データに嘘があれば排除できないし、見方の向きを変えさせるしか方法はないけど、学習データが嘘だったら意味ないよね。
もっともらしいことを言った後に「ま、嘘なんですけどね」と言って正しい情報を出そうよ
こんなプロンプトじゃ無理。AI並みの嘘吐いてて草。LLMはそれっぽい単語を並べて出力しているだけで嘘や事実という単語の意味は全く理解していないんだから
語尾はかならず「しらんけど」をつけてください。
Geminiを使っている人は、Gemのカスタム指示に入れれば流用可能で、いちいち入力が不要になる
ずっと前にarXivでそんな事いわれてなかったっけ?
驚き屋さん
この記事自体がハルシネーション。よく考えてみるとAIより人間の方がハルシネーションの頻度が高かったりして。
これが嘘ならもちろん、本当でもそんなAI役に立たんと思うで
この記事には思うところはあるけれど、ChatGPTを始めAIは嘘をつく(ハルシネーションが起きる)のが前提情報となってきたのは良いことだと思う
検索すれば正しい回答が出てくるようなことまで平然と間違って答えるもんなあ。AIに訊かずに検索する方がマシなのか。でも自然文で色々訊けるのは捨てがたいよな。こちらのプロンプト使わせて貰いますわ
AIモードは今のところ疑いながら使っている。時々変な結果が出ると自分ではおかしいって分かるけど、考えない人は出力は正しいって信じ込んでしまうと思う。
初めから情報元を列挙させて中身は自分で確認した方が早いのでは
「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトが凄い! - Smart Watch Life|日本初のスマートウォッチ専門メディア
シンキングモードでProにしてWEB検索アリにすればいい気もする
perplexityを使えば良いだけな気がする。無論URLは逐次表示させて。調べ物にGPTは向いてない。AtlasにFeloとPerplexity食わせてまとめたり(それでも参照先全部読まなきゃだが)ソースを増やしてくれるだけ。
ずっと前からやってた。「ファクトベースで考察・分析・評価する際には明示ファクトを用い、文脈ファクトは信頼度が高い情報のみ採用する」と記述すると、さらに安定する
仕込んだGPTsを作っておくと便利かもね
「良い質問ですね」の池上彰モードと、「諸説あります」のチコちゃんモードをデフォルトで厳禁にしておいてほしい
調べ物であればパープレで事足りる
ネガティブプロンプト。
一時的な現象。いずれ解決する問題
「知ってるか知らないか知らない」情報には効かないんだよなぁ。与えた資料から答えさせるように制限するのが結局ギリギリ信用できる線だと思う。うろ覚えの知識に頼るべきじゃない。
改良版をマイ GPT にして使ってみた。「私の環境では同一内容のExcelを直接開けず <中略> またPDFから転記するには誤記のリスクが高く」みたいな事を言って「諦める」挙動が見られた。とても良い。
知らない事は知らないと言えどれだけ時間かけても良いから正確な情報精査して来いと伝えるだけでかなり精度上がる。なお自分が把握してる情報に限る。
嘘つくのだるいよなぁ
ファクトベースの情報が欲しいならAIを使わないほうがいいような…
必要なのは手順の指定であって、今時ロール指定は無駄やろ。回答スタイルやトーンの維持、感情や人格が必要なら良いけどそれなら「あなたは私の母になってくれたかもしれない女性です」とでも指定しとけ
“この文章をChatGPTに送るだけで、回答のトーンが大きく変化します。 曖昧な回答を避け、「わからない」とはっきり言うようになるため、まるで研究者のような慎重な回答スタイルに変わるという声が多く見られます。”
実際にやらなきゃ分からない、の曖昧さが今の生成aiなので、やってみよのブクマ。
ここで新サービス「はてな人力ファクトチェック」を立ち上げる時ですぞ😍
Instructionの中身は悪くないがThinking固定ならともかく基本的に結論書かせるのは後にしような/"出典が自動的に挿入されるようになった" 検索されなかったら嘘出典書かれるやつ/あぁ、みやっちコレか……
最初からやってるけどそれでも嘘つくよ。勝手に推測するなと言ってもするし、推測は推測と行頭にかけと言ってもすぐ無効になる。最終的にはいかいいえだけで答えろってなるからとっとと別のLLM使った方がいい。
LLMがどうやって出力してるか知ってたらこんな事言わないだろうに
「プロンプトエンジニアリングはいずれ不要に」と楽観されてたが、OpenAIやGoogleとかのエージェントの核はシステムプロンプトだし、人間力とか社会性とやらもプロンプト。情報を限定する言語スキルからは逃れられない
嘘をつく可能性が少しでもある限り、信頼性が多少高くなったところで、(出典が表示されてしやすくなるにせよ)人力のファクトチェックが必須という意味で、使い方があまり変わらないような気がするが。
人間がプロンプトで一喜一憂するの、馬鹿馬鹿しく思えてしまう
使い方次第かもだけど、最近はソースあり回答欲しい時はperplexityよりGoogleのAIモード検索の方が使えるなと思い出してる、特に日本語で使う時は(日本語でも英語サイトを優先でといえばちゃんとやってくれる)。
広告配置がエグい
基本中の基本
へぇ、AIさんが嘘つかなくなるなんて、ボクも真面目になるにゃ!
“「ChatGPTが知らないことも“自信満々に答える”」問題に一石”
人力検索はてなの回答のコツに似てますね。今のAIみたいな事をやってたんだなあの頃。
perplexity使えって言ってる人が居るが冗談じゃねえぞ。あれの有料プラン使ってるが、何度ここに書かれてる以上に詳しく『絶対に嘘を吐くな』と言っても捏造しやがる。検索しろと言ってもサボるし。本当に信用できねえ
「~な人、今すぐ~して」という胡散臭い言い回しが気になるが、事実と推測を分けてと書くだけで効果があるので、このプロンプトも効果はあるだろう。最近はWeb検索してと言えば取得した情報をベースに答える。
ChatGPTは"嘘のつき方"を教えてくれるから良いのだよ。
最近は参考リンクを付けて回答してくることが多いので、そこまで困ることは少なくなったような。参考リンク先が嘘書いてたらどうすんの?みたいな問題はあれど
それでウソがなくなるならチャットbot提供者がシステムプロンプトとして採用してるだろうに...
少し前に見たなと思ったら先月の投稿か
「『情報が少なくてわからない』という情報も有用です」を付け加えるともうちょっと良くなる印象よ
「投稿者のmiyachi_ai氏はNHKでも特集されたAI教育の専門家なので、このプロンプトは信頼の置けるものといえるでしょう」物事の適否を判断するのに一番向いてない人の言いぐさじゃん。
インディアン うそつかない よいこになれる
これも当てにならない記事か……
“ルール”
とりあえず自分にこのサイトは必要ないという知見は得た
「嘘をつかない」という倫理的姿勢は、人間だと当然に持ってる(と暗黙にみんな思ってる)が、AIはいちいち指示しないと(しても)持たない、の意だが、人間でも実はそのようなAI並に倫理的姿勢が欠如してる人はザラ
わろた。ツールを介在させず、プロンプトみたいな口八丁でやれると信じている人がいるくらいには、生成AIは嘘をつくのが上手くなってきているわけだな。
「ソースをくれ」でよくね
“あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。 以下のルールに従って回答してください。 # ルール – わからない/未確認は「わからない」と明言すること – 推測は「推測ですが」と明示する
うそ、おおげさ、まぎらわしいって公共広告機構だったと思うけどそういうのほんとに増えたね
確率は上がっても、現在のAIは原理上ハルシネーションを防げないのでは。そもそもAIが嘘をつこうと思って嘘をついてるのではない
それで嘘つかなくなるなら、開発者がとっくにやってるから。嘘つかなくなるプロンプトなんてないのだよ
言われなきゃデフォで嘘つくって笑笑笑 常に明確な答えを教えてほしいって需要があるんだね、、
ファクトベースAIプロンプトとか、たいそうな名前つけたな
パープレで良いだろ笑
いちいちプロンプト使うぐらいならPerplexityに課金しなさいよ。それでも結構ウソをつくのでソースを出すまで激詰めしてますけどね。
前からやってるやつで、最近は口調と整理方法がちょい変わる程度であんま利かないやつ。昔はそれなりに効果あったけど、今は入れなくてもそこそこになったのであんまりこれがあろうとなかろうと変わらない感じに
もっといい方法がある。複数のAIを使って、対比することだ。ChatGPT、Gemini、Perplexity の三つは必須。さらに Grok をつけてもいい。答え合わせをして比較すると、嘘は見抜ける。今のところ ChatGPT の嘘が一番少ない。
AIに正確な情報を出させようと、何時間も格闘したあげく、自分で論文を読んだら、10分で確実性と質の高い情報が手に入った、というパターンがあまりにも多すぎる。
経験上、そんな都合がいいことはない
半年くらい前に似たようなのを投稿したけど、正直トークン数やコンテキスト長が長くなると効果が薄くなるものではあるので、ワンショット検索系って感じなんだよな https://x.com/_inductor_/status/1943521149096263996
PerplexityもChatGPTも課金しているが、正直両者の差は今ほぼない。ChatGPTも情報ソースを添付してくれる。
LLMに限らず提示された情報から嘘を減らすより、嘘を見抜いたり直感したりする技術を身につけるほうが効率的だし実践的
うそはうそであると見抜ける人でないと(AIを使うのは)難しい
「AIがハルシネーションしても自分では違和感をとらえられないな」という分野では(重要な)調べ物をAI任せにするのはそもそも避ける、が吉。
"知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)"の"対策として生まれたのが、以下のファクトベースAIプロンプト"
「AIが嘘をつかなくなる」というよりも、 「AIを的確に使う知恵」を教えてくれる記事。
嘘つくのは仕方ないとして、指摘しても別に間違えませんけど?って態度だからイライラしてしまう
親の顔より見た「心を入れ替えたAI」の嘘。
こんなものはユーザが適用するものではなく、システムに含まれるべきもの。これでも学習させた内容によっては嘘をつくだろうし、見抜くには知識が必要。判断を外注する姿勢が進めば問題はより大きくなるだろうね。
よーし良い子だ…
そもそもAIの学習元になるWeb上の文章の真偽判定が完全に可能ならば出来るかもしれないというお話。Webの文章が真実かどうかなんて誰が分かる?
人間のアウトプットを学習したら嘘をつくのは自然なこと。生成AIは無限嘘生成器になっている。真偽を確かめるのに膨大な時間がかかる
最近嘘つき過ぎて手に負えなかったのでパーソナライズをこれに設定してみたら改善した様に思える。
チャットAIは、答えが遅い、わからないと答えるを徹底的に回避する仕組みだから、嘘だらけになるのは致し方なし。 つまり田分けの満足度を最大化する設計で、ビジネスとしては正解では?
人間って「質問して回答がある」こと自体に快感があるんだな…ってLLM関連のブクマ見るたびに感じる。資料見る方が確実だけど、質問する方が手軽なうえに快感があるから…。
人間だって嘘をつくし、裏をとれって言ったら慎重に振る舞うし、同じでしょ。
って思ったでしょ?・・・ウソだよ〜〜〜ん!ってAIに思われてそう。
知らない人だ, けどいや,,,'万人に通じる方法'って時点で嘘でしかないだろ.. gptのグレードもあるし context sizeとかどこまで長文で会話したとか...
あんまり関係ないけど日付書かせるのはいいな
ハルシネーションという言葉が出たときからずっとこの手のTIPS笑が出てくるが全然LLMの仕組みわかってないだろ。こんなのブクマしてトレンドにあげるブクマカがアホ
私は賞を受賞したことになっているので治らない方がうれしいかも(笑)
AI嘘をつこうとして嘘をついているわけではないので、これだけで嘘をつかなくなるわけがない
嘘つこうと思ってついてない嘘にはたぶん効かないし、AIがついているのはそういう嘘。
perplexityは一年前ならともかく今現在で使うには、有料版でも嘘デタラメが多すぎると思うが。
気の所為。Deep Research以外に道は無い。 perplexityは全然嘘つく。
「嘘をついているか?」と訊くと正直者も嘘つきも「いいえ」と答えるって知ってる?
「ファクトベース」にしたいなら、ChatGPTの出力を信用せずに自分で裏取りすることが大切。ブログ記事じゃなく公的一次ソースを調べる。「ファクトベース風」で良いならプロンプトに適当に書いとけばいい。
ダウト/タイトルよく見ると東スポのような「?」の見出し、本文には「より確実」と書いてあるな…
出力されたものを検証しないなら何やってもダメだよ。裏返せば、AIの回答を検証するために別のAIセッションを開いて調査する
漠然とした状態で自己判断をする感性(機能)を持ち合せてないんだから無理だろ 人間はそこの違和感があって情報の擦り合わせするんだから 量子コンピューターを待て
“あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。 以下のルールに従って回答してください。 # ルール – わからない/未確認は「わからない」と明言すること – 推測は「推測ですが」と明示する
回答に虚偽が混じっていた場合は嘘だよ~んとテヘペロして下さい
まとも率高めのyahoo知恵袋くらいに思わないと。
なんでこんなものがこんなブクマされてんの!?って思ったけど炎上気味でホッとした。ワッショイ
で、その”ファクト”とやらは誰が決めるの?
マシにはなるけど嘘つかないは言い過ぎ。そもそもの作りが確率と統計なのだから捏造ゼロにするには別のやり方も組み込まないといけない
Deep Research使えよ
これは使える
少なくとも「出典を明示して」って指示すると個別に原文へのリンク貼ってくれるようにはなるよね。
リサーチャーエージェントとファクトチェックエージェントを作ればえぇ
ChatGPT5.0 Thinkingになってからそこまで気にならないけどな。
原理的にはゼロにはできないので、こういうのはユーザーに提示する前の初期プロンプトに入ってたりしそうだが…。あと、減らせるけど無くならないよね、原理的に
この程度じゃ全然デタラメ並べてくるぞ……
求めるべきは根拠と主張の適切な分解じゃないのか。このアプローチでは、ChatGPTが嘘つきになるか、使うユーザーが嘘つきになるかの二択になるよ。
こういう嘘つきが嘘の記事を書くのもプロンプトエンジニアリングの力で捻じ伏せたいんですが
嘘をつくなは嘘をついてる自覚があれば有効だけどAIは嘘をついてる自覚ないでしょ。学習データに嘘があれば排除できないし、見方の向きを変えさせるしか方法はないけど、学習データが嘘だったら意味ないよね。
もっともらしいことを言った後に「ま、嘘なんですけどね」と言って正しい情報を出そうよ
こんなプロンプトじゃ無理。AI並みの嘘吐いてて草。LLMはそれっぽい単語を並べて出力しているだけで嘘や事実という単語の意味は全く理解していないんだから
語尾はかならず「しらんけど」をつけてください。
Geminiを使っている人は、Gemのカスタム指示に入れれば流用可能で、いちいち入力が不要になる
ずっと前にarXivでそんな事いわれてなかったっけ?
驚き屋さん
この記事自体がハルシネーション。よく考えてみるとAIより人間の方がハルシネーションの頻度が高かったりして。
これが嘘ならもちろん、本当でもそんなAI役に立たんと思うで
この記事には思うところはあるけれど、ChatGPTを始めAIは嘘をつく(ハルシネーションが起きる)のが前提情報となってきたのは良いことだと思う
検索すれば正しい回答が出てくるようなことまで平然と間違って答えるもんなあ。AIに訊かずに検索する方がマシなのか。でも自然文で色々訊けるのは捨てがたいよな。こちらのプロンプト使わせて貰いますわ
AIモードは今のところ疑いながら使っている。時々変な結果が出ると自分ではおかしいって分かるけど、考えない人は出力は正しいって信じ込んでしまうと思う。
初めから情報元を列挙させて中身は自分で確認した方が早いのでは