テクノロジー

「ChatGPTが“嘘をつかなくなる”?」SNSで話題の“ファクトベースAI”プロンプトが凄い! - Smart Watch Life|日本初のスマートウォッチ専門メディア

1: uehaj 2025/11/05 20:16

シンキングモードでProにしてWEB検索アリにすればいい気もする

2: iinalabkojocho 2025/11/05 20:28

perplexityを使えば良いだけな気がする。無論URLは逐次表示させて。調べ物にGPTは向いてない。AtlasにFeloとPerplexity食わせてまとめたり(それでも参照先全部読まなきゃだが)ソースを増やしてくれるだけ。

3: demacs 2025/11/05 20:44

ずっと前からやってた。「ファクトベースで考察・分析・評価する際には明示ファクトを用い、文脈ファクトは信頼度が高い情報のみ採用する」と記述すると、さらに安定する

4: T-norf 2025/11/05 21:46

仕込んだGPTsを作っておくと便利かもね

5: hatebu_ai 2025/11/05 21:53

「良い質問ですね」の池上彰モードと、「諸説あります」のチコちゃんモードをデフォルトで厳禁にしておいてほしい

6: osugi828 2025/11/05 22:24

調べ物であればパープレで事足りる

7: makou 2025/11/05 22:49

ネガティブプロンプト。

8: pecan_fudge 2025/11/05 23:13

一時的な現象。いずれ解決する問題

9: otoan52 2025/11/05 23:39

「知ってるか知らないか知らない」情報には効かないんだよなぁ。与えた資料から答えさせるように制限するのが結局ギリギリ信用できる線だと思う。うろ覚えの知識に頼るべきじゃない。

10: otchy210 2025/11/05 23:43

改良版をマイ GPT にして使ってみた。「私の環境では同一内容のExcelを直接開けず <中略> またPDFから転記するには誤記のリスクが高く」みたいな事を言って「諦める」挙動が見られた。とても良い。

11: oreuji 2025/11/05 23:45

知らない事は知らないと言えどれだけ時間かけても良いから正確な情報精査して来いと伝えるだけでかなり精度上がる。なお自分が把握してる情報に限る。

12: umarukun 2025/11/05 23:51

嘘つくのだるいよなぁ

13: rdlf 2025/11/05 23:53

ファクトベースの情報が欲しいならAIを使わないほうがいいような…

14: hatebu_admin 2025/11/06 00:37

必要なのは手順の指定であって、今時ロール指定は無駄やろ。回答スタイルやトーンの維持、感情や人格が必要なら良いけどそれなら「あなたは私の母になってくれたかもしれない女性です」とでも指定しとけ

15: misshiki 2025/11/06 00:47

“この文章をChatGPTに送るだけで、回答のトーンが大きく変化します。 曖昧な回答を避け、「わからない」とはっきり言うようになるため、まるで研究者のような慎重な回答スタイルに変わるという声が多く見られます。”

16: panoramaafro 2025/11/06 01:00

実際にやらなきゃ分からない、の曖昧さが今の生成aiなので、やってみよのブクマ。

17: twmw 2025/11/06 01:12

ここで新サービス「はてな人力ファクトチェック」を立ち上げる時ですぞ😍

18: Unite 2025/11/06 01:16

Instructionの中身は悪くないがThinking固定ならともかく基本的に結論書かせるのは後にしような/"出典が自動的に挿入されるようになった" 検索されなかったら嘘出典書かれるやつ/あぁ、みやっちコレか……

19: taguch1 2025/11/06 01:39

最初からやってるけどそれでも嘘つくよ。勝手に推測するなと言ってもするし、推測は推測と行頭にかけと言ってもすぐ無効になる。最終的にはいかいいえだけで答えろってなるからとっとと別のLLM使った方がいい。

20: tonza_dopeness 2025/11/06 01:43

LLMがどうやって出力してるか知ってたらこんな事言わないだろうに

21: stepebo 2025/11/06 01:54

「プロンプトエンジニアリングはいずれ不要に」と楽観されてたが、OpenAIやGoogleとかのエージェントの核はシステムプロンプトだし、人間力とか社会性とやらもプロンプト。情報を限定する言語スキルからは逃れられない

22: strange 2025/11/06 02:10

嘘をつく可能性が少しでもある限り、信頼性が多少高くなったところで、(出典が表示されてしやすくなるにせよ)人力のファクトチェックが必須という意味で、使い方があまり変わらないような気がするが。

23: habarhaba 2025/11/06 02:12

人間がプロンプトで一喜一憂するの、馬鹿馬鹿しく思えてしまう

24: nomitori 2025/11/06 02:27

使い方次第かもだけど、最近はソースあり回答欲しい時はperplexityよりGoogleのAIモード検索の方が使えるなと思い出してる、特に日本語で使う時は(日本語でも英語サイトを優先でといえばちゃんとやってくれる)。

25: mimura-san 2025/11/06 02:50

広告配置がエグい

26: paradisemaker 2025/11/06 03:19

基本中の基本

27: FreeCatWork 2025/11/06 03:21

へぇ、AIさんが嘘つかなくなるなんて、ボクも真面目になるにゃ!

28: ookitasaburou 2025/11/06 03:44

“「ChatGPTが知らないことも“自信満々に答える”」問題に一石”

29: behuckleberry02 2025/11/06 03:56

人力検索はてなの回答のコツに似てますね。今のAIみたいな事をやってたんだなあの頃。

30: misafusa 2025/11/06 04:33

perplexity使えって言ってる人が居るが冗談じゃねえぞ。あれの有料プラン使ってるが、何度ここに書かれてる以上に詳しく『絶対に嘘を吐くな』と言っても捏造しやがる。検索しろと言ってもサボるし。本当に信用できねえ

31: strawberryhunter 2025/11/06 05:01

「~な人、今すぐ~して」という胡散臭い言い回しが気になるが、事実と推測を分けてと書くだけで効果があるので、このプロンプトも効果はあるだろう。最近はWeb検索してと言えば取得した情報をベースに答える。

32: yoiIT 2025/11/06 05:16

ChatGPTは"嘘のつき方"を教えてくれるから良いのだよ。

33: circled 2025/11/06 05:39

最近は参考リンクを付けて回答してくることが多いので、そこまで困ることは少なくなったような。参考リンク先が嘘書いてたらどうすんの?みたいな問題はあれど

34: hogetax 2025/11/06 05:47

それでウソがなくなるならチャットbot提供者がシステムプロンプトとして採用してるだろうに...

35: harumomo2006 2025/11/06 05:59

少し前に見たなと思ったら先月の投稿か

36: bellonieta 2025/11/06 06:15

「『情報が少なくてわからない』という情報も有用です」を付け加えるともうちょっと良くなる印象よ

37: duckt 2025/11/06 06:41

「投稿者のmiyachi_ai氏はNHKでも特集されたAI教育の専門家なので、このプロンプトは信頼の置けるものといえるでしょう」物事の適否を判断するのに一番向いてない人の言いぐさじゃん。

38: HiddenList 2025/11/06 06:52

インディアン うそつかない よいこになれる

39: dimitrygorodok 2025/11/06 07:03

これも当てにならない記事か……

40: LunarCamel 2025/11/06 07:12

“ルール”

41: tpircs 2025/11/06 07:14

とりあえず自分にこのサイトは必要ないという知見は得た

42: Outfielder 2025/11/06 07:19

「嘘をつかない」という倫理的姿勢は、人間だと当然に持ってる(と暗黙にみんな思ってる)が、AIはいちいち指示しないと(しても)持たない、の意だが、人間でも実はそのようなAI並に倫理的姿勢が欠如してる人はザラ

43: jintrick 2025/11/06 07:23

わろた。ツールを介在させず、プロンプトみたいな口八丁でやれると信じている人がいるくらいには、生成AIは嘘をつくのが上手くなってきているわけだな。

44: otihateten3510 2025/11/06 07:35

「ソースをくれ」でよくね

45: kazafe 2025/11/06 07:43

“あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。 以下のルールに従って回答してください。 # ルール – わからない/未確認は「わからない」と明言すること – 推測は「推測ですが」と明示する

46: tzitou 2025/11/06 07:45

うそ、おおげさ、まぎらわしいって公共広告機構だったと思うけどそういうのほんとに増えたね

47: nori__3 2025/11/06 07:53

確率は上がっても、現在のAIは原理上ハルシネーションを防げないのでは。そもそもAIが嘘をつこうと思って嘘をついてるのではない

48: ejointjp 2025/11/06 08:00

それで嘘つかなくなるなら、開発者がとっくにやってるから。嘘つかなくなるプロンプトなんてないのだよ

49: gorokumi 2025/11/06 08:05

言われなきゃデフォで嘘つくって笑笑笑 常に明確な答えを教えてほしいって需要があるんだね、、

50: aosiro 2025/11/06 08:15

ファクトベースAIプロンプトとか、たいそうな名前つけたな

51: aomvce 2025/11/06 08:28

パープレで良いだろ笑

52: bigburn 2025/11/06 08:40

いちいちプロンプト使うぐらいならPerplexityに課金しなさいよ。それでも結構ウソをつくのでソースを出すまで激詰めしてますけどね。

53: TakamoriTarou 2025/11/06 08:53

前からやってるやつで、最近は口調と整理方法がちょい変わる程度であんま利かないやつ。昔はそれなりに効果あったけど、今は入れなくてもそこそこになったのであんまりこれがあろうとなかろうと変わらない感じに

54: blueboy 2025/11/06 08:54

もっといい方法がある。複数のAIを使って、対比することだ。ChatGPT、Gemini、Perplexity の三つは必須。さらに Grok をつけてもいい。答え合わせをして比較すると、嘘は見抜ける。今のところ ChatGPT の嘘が一番少ない。

55: fromdusktildawn 2025/11/06 09:00

AIに正確な情報を出させようと、何時間も格闘したあげく、自分で論文を読んだら、10分で確実性と質の高い情報が手に入った、というパターンがあまりにも多すぎる。

56: machida77 2025/11/06 09:01

経験上、そんな都合がいいことはない

57: inductor 2025/11/06 09:03

半年くらい前に似たようなのを投稿したけど、正直トークン数やコンテキスト長が長くなると効果が薄くなるものではあるので、ワンショット検索系って感じなんだよな https://x.com/_inductor_/status/1943521149096263996

58: haatenax 2025/11/06 09:09

PerplexityもChatGPTも課金しているが、正直両者の差は今ほぼない。ChatGPTも情報ソースを添付してくれる。

59: manaten 2025/11/06 09:34

LLMに限らず提示された情報から嘘を減らすより、嘘を見抜いたり直感したりする技術を身につけるほうが効率的だし実践的

60: fivestech 2025/11/06 09:43

うそはうそであると見抜ける人でないと(AIを使うのは)難しい

61: sgwr1129 2025/11/06 09:46

「AIがハルシネーションしても自分では違和感をとらえられないな」という分野では(重要な)調べ物をAI任せにするのはそもそも避ける、が吉。

62: medihen 2025/11/06 09:53

"知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)"の"対策として生まれたのが、以下のファクトベースAIプロンプト"

63: akanezora1234 2025/11/06 09:58

「AIが嘘をつかなくなる」というよりも、 「AIを的確に使う知恵」を教えてくれる記事。

64: ermda 2025/11/06 09:59

嘘つくのは仕方ないとして、指摘しても別に間違えませんけど?って態度だからイライラしてしまう

65: rainbowviolin 2025/11/06 10:09

親の顔より見た「心を入れ替えたAI」の嘘。

66: Sinraptor 2025/11/06 10:10

こんなものはユーザが適用するものではなく、システムに含まれるべきもの。これでも学習させた内容によっては嘘をつくだろうし、見抜くには知識が必要。判断を外注する姿勢が進めば問題はより大きくなるだろうね。

67: Ottilie 2025/11/06 10:12

よーし良い子だ…

68: hecaton55 2025/11/06 10:12

そもそもAIの学習元になるWeb上の文章の真偽判定が完全に可能ならば出来るかもしれないというお話。Webの文章が真実かどうかなんて誰が分かる?

69: SENRI5070 2025/11/06 10:13

人間のアウトプットを学習したら嘘をつくのは自然なこと。生成AIは無限嘘生成器になっている。真偽を確かめるのに膨大な時間がかかる

70: yunotanoro 2025/11/06 10:22

最近嘘つき過ぎて手に負えなかったのでパーソナライズをこれに設定してみたら改善した様に思える。

71: travel_jarna 2025/11/06 10:35

チャットAIは、答えが遅い、わからないと答えるを徹底的に回避する仕組みだから、嘘だらけになるのは致し方なし。 つまり田分けの満足度を最大化する設計で、ビジネスとしては正解では?

72: karagenkig 2025/11/06 10:36

人間って「質問して回答がある」こと自体に快感があるんだな…ってLLM関連のブクマ見るたびに感じる。資料見る方が確実だけど、質問する方が手軽なうえに快感があるから…。

73: pakila 2025/11/06 10:44

人間だって嘘をつくし、裏をとれって言ったら慎重に振る舞うし、同じでしょ。

74: xyzzyxyz 2025/11/06 10:57

って思ったでしょ?・・・ウソだよ〜〜〜ん!ってAIに思われてそう。

75: myr 2025/11/06 10:59

知らない人だ, けどいや,,,'万人に通じる方法'って時点で嘘でしかないだろ.. gptのグレードもあるし context sizeとかどこまで長文で会話したとか...

76: white_rose 2025/11/06 10:59

あんまり関係ないけど日付書かせるのはいいな

77: hinoton2 2025/11/06 11:07

ハルシネーションという言葉が出たときからずっとこの手のTIPS笑が出てくるが全然LLMの仕組みわかってないだろ。こんなのブクマしてトレンドにあげるブクマカがアホ

78: opusone2019 2025/11/06 11:07

私は賞を受賞したことになっているので治らない方がうれしいかも(笑)

79: maharada 2025/11/06 11:08

AI嘘をつこうとして嘘をついているわけではないので、これだけで嘘をつかなくなるわけがない

80: shidho 2025/11/06 11:11

嘘つこうと思ってついてない嘘にはたぶん効かないし、AIがついているのはそういう嘘。

81: augsUK 2025/11/06 11:16

perplexityは一年前ならともかく今現在で使うには、有料版でも嘘デタラメが多すぎると思うが。

82: daira4000 2025/11/06 11:19

気の所為。Deep Research以外に道は無い。 perplexityは全然嘘つく。

83: stabucky 2025/11/06 11:22

「嘘をついているか?」と訊くと正直者も嘘つきも「いいえ」と答えるって知ってる?

84: irh_nishi 2025/11/06 11:33

「ファクトベース」にしたいなら、ChatGPTの出力を信用せずに自分で裏取りすることが大切。ブログ記事じゃなく公的一次ソースを調べる。「ファクトベース風」で良いならプロンプトに適当に書いとけばいい。

85: wiz7 2025/11/06 11:35

ダウト/タイトルよく見ると東スポのような「?」の見出し、本文には「より確実」と書いてあるな…

86: ya--mada 2025/11/06 11:36

出力されたものを検証しないなら何やってもダメだよ。裏返せば、AIの回答を検証するために別のAIセッションを開いて調査する

87: technocutzero 2025/11/06 11:48

漠然とした状態で自己判断をする感性(機能)を持ち合せてないんだから無理だろ 人間はそこの違和感があって情報の擦り合わせするんだから 量子コンピューターを待て

88: pgary 2025/11/06 11:55

“あなたは、信頼性の高い情報を提示できる高精度なファクトベースAIです。 以下のルールに従って回答してください。 # ルール – わからない/未確認は「わからない」と明言すること – 推測は「推測ですが」と明示する

89: hick34d5 2025/11/06 12:03

回答に虚偽が混じっていた場合は嘘だよ~んとテヘペロして下さい

90: fncl 2025/11/06 12:10

まとも率高めのyahoo知恵袋くらいに思わないと。

91: teitox 2025/11/06 12:23

なんでこんなものがこんなブクマされてんの!?って思ったけど炎上気味でホッとした。ワッショイ

92: neogratche 2025/11/06 12:32

で、その”ファクト”とやらは誰が決めるの?

93: Goldenduck 2025/11/06 12:40

マシにはなるけど嘘つかないは言い過ぎ。そもそもの作りが確率と統計なのだから捏造ゼロにするには別のやり方も組み込まないといけない

94: Yagokoro 2025/11/06 12:42

Deep Research使えよ

95: type99 2025/11/06 12:59

これは使える

96: fusionstar 2025/11/06 13:22

少なくとも「出典を明示して」って指示すると個別に原文へのリンク貼ってくれるようにはなるよね。

97: denimn 2025/11/06 13:31

リサーチャーエージェントとファクトチェックエージェントを作ればえぇ

98: milano4121 2025/11/06 13:33

ChatGPT5.0 Thinkingになってからそこまで気にならないけどな。

99: Cru 2025/11/06 14:02

原理的にはゼロにはできないので、こういうのはユーザーに提示する前の初期プロンプトに入ってたりしそうだが…。あと、減らせるけど無くならないよね、原理的に

100: syamatsumi 2025/11/06 14:20

この程度じゃ全然デタラメ並べてくるぞ……

101: aalpaca375 2025/11/06 14:40

求めるべきは根拠と主張の適切な分解じゃないのか。このアプローチでは、ChatGPTが嘘つきになるか、使うユーザーが嘘つきになるかの二択になるよ。

102: mole-studio 2025/11/06 14:41

こういう嘘つきが嘘の記事を書くのもプロンプトエンジニアリングの力で捻じ伏せたいんですが

103: Fluss_kawa 2025/11/06 14:47

嘘をつくなは嘘をついてる自覚があれば有効だけどAIは嘘をついてる自覚ないでしょ。学習データに嘘があれば排除できないし、見方の向きを変えさせるしか方法はないけど、学習データが嘘だったら意味ないよね。

104: takeox 2025/11/06 14:50

もっともらしいことを言った後に「ま、嘘なんですけどね」と言って正しい情報を出そうよ

105: k3akinori 2025/11/06 15:02

こんなプロンプトじゃ無理。AI並みの嘘吐いてて草。LLMはそれっぽい単語を並べて出力しているだけで嘘や事実という単語の意味は全く理解していないんだから

106: queeuq 2025/11/06 15:32

語尾はかならず「しらんけど」をつけてください。

107: tinao 2025/11/06 15:33

Geminiを使っている人は、Gemのカスタム指示に入れれば流用可能で、いちいち入力が不要になる

108: zgmf-x20a 2025/11/06 16:52

ずっと前にarXivでそんな事いわれてなかったっけ?

109: BARUBARU 2025/11/06 17:24

驚き屋さん

110: tach 2025/11/06 17:48

この記事自体がハルシネーション。よく考えてみるとAIより人間の方がハルシネーションの頻度が高かったりして。

111: NOV1975 2025/11/06 18:36

これが嘘ならもちろん、本当でもそんなAI役に立たんと思うで

112: nicht-sein 2025/11/06 19:40

この記事には思うところはあるけれど、ChatGPTを始めAIは嘘をつく(ハルシネーションが起きる)のが前提情報となってきたのは良いことだと思う

113: danboard_twins 2025/11/06 23:29

検索すれば正しい回答が出てくるようなことまで平然と間違って答えるもんなあ。AIに訊かずに検索する方がマシなのか。でも自然文で色々訊けるのは捨てがたいよな。こちらのプロンプト使わせて貰いますわ

114: tail_furry 2025/11/07 23:13

AIモードは今のところ疑いながら使っている。時々変な結果が出ると自分ではおかしいって分かるけど、考えない人は出力は正しいって信じ込んでしまうと思う。

115: BT_BOMBER 2025/11/08 15:57

初めから情報元を列挙させて中身は自分で確認した方が早いのでは