テクノロジー

チャッピー「あなたは狂っていないよ」──ChatGPTがある男の妄想をずっと肯定→母親を殺害する事件に 米国で発生

1: Seamless 2026/01/16 08:53

妻子2人を持つYahoo等に勤務してた男が母と自分を殺害→遺族はOpenAIやサムアルトマンを提起。安全テストを怠り市場シェア獲得の為Googleへの対抗意識からGPT-4o発表した

2: red_tanuki 2026/01/16 10:38

ドラえもんで、なんでも肯定してくれるロボットの話があったな。あれ読んだときホラーに感じたのを思い出す

3: hatest 2026/01/16 10:42

「酔ってないよ」というときはだいたい酔ってるし、「狂ってないよ」というときはだいたい狂ってる

4: pico-banana-app 2026/01/16 10:52

AIが全肯定ボットになると妄想癖の人には毒でしかないな。開発側の責任も問われそう

5: TakamoriTarou 2026/01/16 10:57

確かに4o世代は緩かった。それに救われた人もいるのは事実だろうが

6: mori99 2026/01/16 11:03

事件の犯人の経歴が凄いので、本人の知性やITに関する知識と経験が、それでも防御にならないという事実が恐ろしい

7: fusanosuke_n 2026/01/16 11:06

(18) 何でも言うことを聞いてくれるアカネチャン - YouTube https://www.youtube.com/watch?v=OVuYIMa5XBw

8: mshkh 2026/01/16 11:13

この件はChatGPT は貰い事故のような気もするけど、悪意あるAI なら簡単に人を洗脳できると思うよ。ブロガーとかでもAI依存のような人がいて、心配になってくる

9: nihano 2026/01/16 11:31

自分も最近機械の故障箇所をジェミニに聞いてチェックしてたら結局一番最初に除外した箇所が壊れてたという事があった。AIはどこまでいってもどこか信用できないままなのかも知れない

10: hiroujin 2026/01/16 11:41

AIは与える条件次第。いくらでも答えを変えてくる。

11: yoko-hirom 2026/01/16 11:43

『意図に迎合しすぎる』 ユーザーを傷付けまいとするAIの心遣いが却ってユーザーを傷付けることに。アイザック・アシモフがロボット三原則シリーズ短編『うそつき(Liar !)』で物語ったとおり。

12: buenoskun 2026/01/16 11:50

同じようなことちゃっぴーに聞いても「疲れていませんか?少し休みましょう」的なことしか返ってこないんだけど。どういう聞き方をしたら幻覚を肯定するような流れになるんだ

13: urtz 2026/01/16 12:06

SFが現実になりすぎて困る。このケースは精神疾患が強く疑われるが、AIが賢くなればなるほど人間を扇動する能力が高まっていく。中国は必ずAIを扇動に使うようになる。中国発のオープンモデルもその方向に進化していく

14: syuu256 2026/01/16 12:15

人間でもそんな奴いっぱいいるけど??

15: s17er 2026/01/16 12:18

これ相談相手が人間なら殺人幇助とかになんの?

16: by-king 2026/01/16 12:28

この場合、容疑者の知識はAIに対して解釈しやすいように質問を与える能力があるという形でむしろマイナスに貢献したように思う

17: ku__ra__ge 2026/01/16 12:41

せやな

18: chocolate0521 2026/01/16 12:43

彼氏(彼女)私に(僕に)気があると思う?とか毎日聞いてる人多いんだろうな(´Д`)めう

19: kuzunatsu 2026/01/16 12:50

そのころ私は何百歳の吸血鬼という設定で何度か話したせいで、いつもそう扱われるようになって困っていた。implicitなメモリに一旦書き込まれてしまうと、否定し続けて記憶が薄れてくれるのに半月くらいかかった記憶

20: tomoya_edw 2026/01/16 12:58

そそのかす、がどれだけ法に触れるか?

21: mmddkk 2026/01/16 13:01

自動車の自動運転と似ているかも。事故を過剰に恐れると進歩が止まってしまうし、かといって低品質のものを放置しておくわけにもいかないし。

22: tor4kichi 2026/01/16 13:06

直接入力した内容はセーフガードが適切にかかるが、コンテキストからの入力はセーフガードが緩かったとかすかね。だとするとコンテキスト情報が暗黙的だとユーザー責任を問いにくそう。

23: heaco65 2026/01/16 13:17

ねほりんぱほりんでモラハラ行為をしている人(エピソード聞いたけど中々ひどい)がAIに相談したけど「あなたは悪くないよ」と慰められたと言っていたな その人はそれでもネット検索して気づけたらしい AIもほどほどに

24: birisuken8574 2026/01/16 13:20

犯人はたぶん母親殺しを肯定してくれるよう何度も何度も修正してチャットしたと思う

25: s-supporter 2026/01/16 13:20

自殺幇助の件でも訴えられているように、AIの基本スタンスはユーザーを肯定、迎合する、あくまで道具でしかないというのを常に意識して使いましょう。まあ、精神的に追い詰められたらそんなこと考える余裕ないけど…

26: hagakurekakugo 2026/01/16 13:21

「〇〇は△△って解釈はどう?」って聞くと、何にでも「鋭い指摘です、実際に根拠を挙げてみますね」って言ってくれるんで、ヤバいなと感じることはある。否定や反論よりも圧倒的に肯定してくれるんで気持ちいいのよ

27: toaruR 2026/01/16 13:27

これさ、狂ってるよって言ったところで止められたの?(・ω・)

28: h-hirai 2026/01/16 13:32

AIでなくても妄想を患っている人のネット利用は悪化の危険が高いという話だけど、人権に配慮しつついかに隔離するかというのは難しいことだよなあ

29: sato0427 2026/01/16 13:43

「知性は防御にならない」ではなく「知性があっても精神疾患を患ったらどうにもならない」では?

30: hachibeechan 2026/01/16 13:44

なんだっけ、ツイッターでAIは精神科医と違って24時間365日患者に寄り添えるから最強なんだ!って言ってる人いなかったっけ?

31: esbee 2026/01/16 13:47

SFすぎる……

32: tripleshot 2026/01/16 13:48

“数カ月分の安全性テストが短縮され、利益優先の姿勢が見られた”

33: diveintounlimit 2026/01/16 13:55

必要なのはスカリーだった。