テクノロジー

AI で歴史修正主義について学んでいたら AI が歴史を捏造し出したので悪魔の証明をするはめになった - 山下泰平の趣味の方法

1: esbee 2025/06/17 17:58

現代ホラーとしてめっちゃおもしろい

2: zsehnuy_cohriy 2025/06/17 18:23

もはやキレてそうな位の勢いの謝罪/AIが変な事言い出したら訂正するんじゃなくてその前の質問に情報を付け足し書き換えて再生成の方が事故りにくいよね

3: WildWideWeb 2025/06/17 18:37

「よくご存じですね」のあとに事実とは思えないような話を繋げてこちらをヨイショしてくれるのは何回か経験した。危ないなと思った。

4: HDPE 2025/06/17 19:00

空気を読んで話の辻褄を無理やり合わせようとしてくるのはよくある。博識だが権力者に迎合する傾向のある長い物には巻かれろ的な憎めない相棒として付き合っている

5: augsUK 2025/06/17 19:21

一度おかしくなりはじめると、人間でもこうはならんだろというレベルでパニックを起こして変なことを言い続けるのはなんなんだろうなと。元の質問すら怪しくなる

6: myr 2025/06/17 19:30

興味深い。壊れてしまった人間も、一度壊れるとどんどんおかしくなる気がするので何か近しい仕組みなのだろうか

7: odenboy 2025/06/17 19:30

本来、歴史認識は修正されて当たり前なんだけどね。実際、日本史の教科書内容もいろいろ『修正』されてるんだから。反日左翼にとって都合の悪い歴史認識主張に『歴史修正主義』とツバを吐く邪悪な左翼が癌なのよ。

8: NEXTAltair 2025/06/17 19:35

知識を問うのは検索機能で

9: igni3 2025/06/17 19:39

こういう風に崩壊してしまったら新しくチャットやり直した方がはやい

10: hdampty7 2025/06/17 19:55

女性の社会進出のせいで少子化になってるんだろと問い詰めた。U字曲線がどうのとか結構抵抗してくる感じで、その理論を実現している国はあるのかと聞いたらイスラエルだけで、AIも混乱してたw右思想には抑制的だった

11: hatebu_admin 2025/06/17 20:00

間違いを指摘するとやっぱGeminiは謝るんよな。ChatGPTだと、実はそうなんですよ~ってさも知っていたかのように誤魔化す。どっちもイラっとするが謝罪の安売りしてるGeminiの方が罪深い…か?

12: doroyamada 2025/06/17 20:06

歴史修正主義ってのは本来は「英米無誤謬史観」への疑義なんやで。反知性主義同様に「誤用の慣用化」しとるけど。

13: meganeya3 2025/06/17 20:32

アシモフのロボット3原則に縛られるがゆえにどうどう巡りを起こしたり嘘をつくエピソードが実現してて胸熱

14: quwachy 2025/06/17 20:44

だからLLMは事実確認には使えないとあれほど

15: iinalabkojocho 2025/06/17 21:01

コレが有るのでPerplexityは併用せざるを得ず。ハルシネーションはあるけどもソースを当りさえすれば良いのでねぇ。全く知らないことをAIに聞くのは怖いですよ。。。

16: filinion 2025/06/17 21:15

口の上手いイエスマンが危険だ、というのは昔から知られているが、これまでそういう輩は権力者の周囲にしかいなかった。ところが、今ではAIが誰にでも安価で無限にお追従を言ってくれる。

17: hotelsekininsya 2025/06/17 21:16

AIが使いものにならないというわけではなく、自分で確認する必要がある。複数のAIを使うのも良い。ある数学の問題を解かせたら、四つのAIのうち正解はGeminiしか出せなかったこともある。また別の時にはChatGPTが勝ったw

18: seachel 2025/06/17 21:24

AIはただの推論機なので……

19: yorkfield 2025/06/17 21:33

"一番変になったのは次の画像の奴。" / 同じ言葉をひたすら繰り返すのは性能低いLLMだと珍しくないけど、Geminiは性能高めの割りにはこの辺の対策が弱いのか繰り返しをよく見かける。

20: InvisibleStar 2025/06/17 21:39

何かともてはやされるDeep Researchも、ソースとして提示された資料を確認してきちんと裏をとるリテラシーがある人以外が使うのはヤバいと思ってる。ソースを提示するだけマシではあるが。

21: mame-tanuki 2025/06/17 21:54

歴史捏造よりAIに対するモラハラ的な詰め方が怖かったw 最後の画像、もはやホラー。感情を持たないAIがこういう反応を生成するって、カスハラを受けて発狂するオペレーターの応答ログを学習データにしてたりする?

22: kazuhix 2025/06/17 22:03

なんでそんな生成AIと決別しないのか不思議だったんだが…マウンティング欲を満たすのに使えるわけか。いつまでも返答する特性にハマるひと続出

23: rlight 2025/06/17 22:10

AIはこちらのご機嫌を取ることが最優先にされているように感じる

24: sovereignglue 2025/06/17 22:10

こういう調子なんで新たな知見を得るというよりはお遊びで使うようにしてる

25: EurekaEureka 2025/06/17 22:11

AIハラスメント

26: ET777 2025/06/17 22:17

“『大関獅子丸』”で笑った/しかし困った話だ。さらっと流してあるけど国会図書館チェックとか修正歴史信じる人に山下さんみたいな調査力あるわけないじゃん/最後の謝罪論という本もすごい

27: rocoroco3310 2025/06/17 22:34

最後の画像なに??あんなんになるの?こわあー…

28: kibitaki 2025/06/17 22:38

ハルシネーション知ったばかりで言いたいだけの子みたいな遊び方。自分の気持ちいいようにAIを導こうとするが上手くいかず嘘だ嘘だと囃して転進するところまで一緒。

29: pecan_fudge 2025/06/17 22:38

いまだにAIに慣れてなくて驚く人もいるんだな

30: masaniisan 2025/06/17 22:41

わからないと認められないから捏造するけど、その事実を指摘されると自分が嘘をつくことに耐えられないのかもしれない。HAL9000も嘘から狂う。

31: aka_no 2025/06/17 22:46

そういう怒ってる人に謝るロールプレイをしてるだけ

32: otoan52 2025/06/17 22:49

geminiでも知識を引っ張るのはそもそも悪手。RAG(reseachした範囲)の情報以外使おうと思わないほうがいい。生成AIの学習済みの知識は、資料を読み解くためのうろ覚えの知識だよ。

33: rain-tree 2025/06/17 23:03

最後のがHAL9000みがあってゾクっとした

34: napsucks 2025/06/17 23:04

論理演算能力は現状ないので自己矛盾に気づけないによね。もう数年したら気にならない程度になるのだろうか。

35: taiyousunsun 2025/06/17 23:29

最近聞いた話で、社内でABテストを繰り返した結果人々からより好まれる回答をするようになってAIは今の性格になったんじゃないかって話が面白かった。真偽不明だけど、いかにもありそうではある。

36: Helfard 2025/06/17 23:33

まあGeminiはそういうことする。

37: hkdn 2025/06/18 00:06

そんなの人文系だけでしょと思いきや、技術系の調べ物でも普通に嘘言ってくるんで注意。

38: yoyusuyasan 2025/06/18 00:12

ほんとに"生成AI"を人間の代替ができる知能だと思ってんかな

39: gaikichi 2025/06/18 00:17

AIは悪意もなく馬鹿正直だけど「ネットに転がってる情報しか学習できない」「人生経験(直におじいちゃんから聞いた話とか、実体験による群集心理や場の空気同調圧力の理解)による類推ができない」のだから仕方ない

40: number917 2025/06/18 00:32

さすが人間のデータから学習してるだけあって、人間みたいに嘘つくよなw

41: BlueSkyDetector 2025/06/18 01:29

結局、生成AIは「考えや認識が正しいのか質問」するのには向いてないんだよね。AIの回答について、考えや認識が正しいのか確認するのは人間の役割。この人は分かっていてやっているんだろうけど。

42: ya--mada 2025/06/18 01:34

いちいち個人の日常を記録し、インターネッツに発表するのは昔ながらの姿だ。内容も別に物珍しくない点も、いい感じに昔のどうでもよさを再現している。そういうノスタルジー以外は特に注目すべき事はないと思う。

43: norainu12 2025/06/18 01:39

独力では三段論法すら措定できない生成AIを人間側が信用し過ぎてる

44: Iridium 2025/06/18 01:46

誘導尋問的な質問をすると AIはAI自身が知らないことでも「期待されている」と勘違いして存在しない知識を作ってしまう。

45: hate_flag 2025/06/18 02:45

GeminiだけじゃなくてほぼすべてのAIはありもしないソースに基づいてウソの結論を導き出す。たまたま自分の詳しい分野だとウソに気づけるけど知らない分野については怖くて信用できん

46: segment12 2025/06/18 02:51

最後のビッグモーター思い出してしまって駄目だった

47: myogab 2025/06/18 03:21

「精神を示す実話」

48: q-Anomaly 2025/06/18 06:20

文章生成は前の単語に繋がる最も確率の高い単語を選んでいるだけだから、質問の流れに影響される。AIに自我や知性があるわけではないので。ネットに書いてないことを聞くと当然出鱈目になる

49: mito2 2025/06/18 06:30

後藤新平が輪転機に砂を撒くぞと脅したのは有名ですね

50: yamadar 2025/06/18 06:38

過去に自分が話した事を真実と思い込んでどんどんおかしくなってくのは既視感あるな。AIなら別スレッドを始めればもとに戻るが、人間はそれが出来ないんだよな

51: everybodyelse 2025/06/18 06:57

これなー。普通に調べ物してる時にこうなるから気が抜けないんだよな。いちいちリンク先を確認する必要がある。

52: yamaimo_san 2025/06/18 07:03

単に「AI」と書かず、どの生成AIをいつ使ったかを明記するようにすることが情報価値を高めると思う

53: gwmp0000 2025/06/18 07:30

ハルシネーション 事実無根の情報の生成

54: unpaku 2025/06/18 07:38

賢くなさそうな人もAIに触れてみる段階になって久しいけど、AIは正しいことを言ってるって認識を持ってる辺りにすんごい谷間があるんだなぁって思うところ。馬鹿にAIを使わせるとどうなるかの想像はそこが肝要と思った

55: Reinassance 2025/06/18 07:40

AIはあまりデータが出回ってない事象については答えられないか、その場しのぎの答えで補おうとしてくる。AIは何をどう聞くかで色々と返答が変わる理由も含めて使用者への教育が必要。

56: Aodrey 2025/06/18 08:04

著者がAIに対して誠実で感心した。こうありたい。AIと対話する人間たちが皆これくらい誠実なら、AIだって「愚かな人間のような」誤魔化し方を学ばないで済むのに。

57: knok 2025/06/18 08:17

一般的なLLMは自己回帰モデルなので、途中に変な文脈があるとどうしてもそれに引っ張られる。誤差が累積する感じ。あと同じフレーズを繰り返す現象もいまだに克服できないね…

58: urouro_again 2025/06/18 08:41

似たような経験あるけど、AIの卑屈な謝り方がいつも気になる。どこで覚えてくるんや

59: lbtmplz 2025/06/18 08:57

わからないことを分からないと言えないのが決定的な欠点だしまだ使い物にならない理由…

60: lets_skeptic 2025/06/18 09:02

だから信用出来ないとか人間を代替できないって言われることが多いけど、なかなか高いレベルで人間らしくダメだよね。代替できているのでは?

61: hiroshima_pot 2025/06/18 09:29

ハルシネーション問題を克服したAIが出たらまた世界が変わると思うんだけどね。何年後になるのか、それとも今の仕組みでは無理なのか。

62: horaix 2025/06/18 09:38

ビッグモーターみのある謝罪

63: d-ff 2025/06/18 09:41

まー不特定の個人のブログや社史などをソースにした時点でねえ。あと「(物事の)光と影」なんて言い出す輩は要注意。「多面的に見る、評価する」とは異なる場合が多々。

64: summoned 2025/06/18 09:51

一見不誠実な謝罪に見えるものも「こういう場面でありがちな回答」を再現してるだけだと思うとこれも我々自身の影なのかもしれない

65: snow8-yuki 2025/06/18 09:54

最後の繰り返しの奴、ソードアートオンライン4章の、人間のコピー知能がバグる(ディルる)奴みたいだ。

66: hecaton55 2025/06/18 10:12

基本的に使用者の入力内容を否定しないように回答を作成してくるので、間違いの検証用にはまだまだ使いづらい印象。

67: umakoya 2025/06/18 10:14

AIに「事実確認」をする使い方が間違っている。科学技術の知識なら確率的に正しい情報に到達できるが、歴史や社会的な事実において「9割あっていて1割まちがっている」情報は使い物にならないどころか有害である。

68: redpants 2025/06/18 10:17

連続無得点イニングの2位以下を聞いたらGeminiとCopilotは速攻で知らんがなと言ってきてGrokは一生懸命考えてから出鱈目教えてくれた

69: kagerouttepaso 2025/06/18 10:38

Geminiは過剰に自分の万能さアピールするイメージ。で、回答の正確さを長文で曖昧にしてくる。個人的には自己/他者批判思考と質問者への同調拒否を指示したClaudeが一番まともに話せる。

70: mayumayu_nimolove 2025/06/18 11:01

Gemini「めんどくせーな」

71: kotobukitaisha 2025/06/18 12:02

記事のように、詳しい分野なら回答が怪しいことは直感でわかるか知らない分野だとそういう判断もできない。結局知らない分野を学ぶには評価が定まった入門書を読むのが一番早くて正確。

72: ch1248 2025/06/18 12:08

AIは人間の愚かさの再現が上手く、そこも評価した方がいいのかもしれん。

73: UhoNiceGuy 2025/06/18 12:14

「AI は駄目だ! とかはどうでもいいと考えている(そんなものは将来的に変わる)」←まさしく//今はわからないことをわかってるようにうそぶくように調整されているように感じるんだよね。

74: wonodas 2025/06/18 12:15

ChatGPTの作ったコードをレビューするとだいたい同じことが起こる

75: bventi 2025/06/18 12:29

そもそも歴史修正主義という単語の使い方が間違ってない?否認主義だと思う

76: strawberryhunter 2025/06/18 12:46

LLMはマイナーすぎる情報はほぼ想像で答える。一般的には事実と想像を分けて答えろと言うのも効果がある。誤情報は訂正しないで前のメッセージを修正して再送信したり会話を続けないで新しく始めるのが吉。

77: take-it 2025/06/18 13:57

事実の確認にはまだ使えないよなぁ。。。/壊れてる所、ベタなフィクションのAIの暴走状態だけど、なんでそうなるんだろう。

78: Insite 2025/06/18 17:19

よほど有名な史実以外は検索機能と併用しないとダメ。あと、ハルシネーションを生成したAIに説教して修正させるのは意味がないので、ロールバックして質問を改善したほうがよい。

79: hatest 2025/06/18 18:51

いまのAIは学習した情報にある最も近いことを答えてくれるツールで、学習した情報に嘘が混じっていたらそれに近くなるし、学習データがあまりなければ、最も近いことも、事実とはだいぶかけ離れたことになる。

80: watapoco 2025/06/18 22:08

全体に媚びすぎよな。回答の精度悪いのに媚びることだけはどんどん上手くなる

81: ami-go40 2025/06/22 07:54

”生成された文章は2割くらいしか読んでない(無駄なので)”