妻子2人を持つYahoo等に勤務してた男が母と自分を殺害→遺族はOpenAIやサムアルトマンを提起。安全テストを怠り市場シェア獲得の為Googleへの対抗意識からGPT-4o発表した
ドラえもんで、なんでも肯定してくれるロボットの話があったな。あれ読んだときホラーに感じたのを思い出す
「酔ってないよ」というときはだいたい酔ってるし、「狂ってないよ」というときはだいたい狂ってる
AIが全肯定ボットになると妄想癖の人には毒でしかないな。開発側の責任も問われそう
確かに4o世代は緩かった。それに救われた人もいるのは事実だろうが
事件の犯人の経歴が凄いので、本人の知性やITに関する知識と経験が、それでも防御にならないという事実が恐ろしい
(18) 何でも言うことを聞いてくれるアカネチャン - YouTube https://www.youtube.com/watch?v=OVuYIMa5XBw
この件はChatGPT は貰い事故のような気もするけど、悪意あるAI なら簡単に人を洗脳できると思うよ。ブロガーとかでもAI依存のような人がいて、心配になってくる
自分も最近機械の故障箇所をジェミニに聞いてチェックしてたら結局一番最初に除外した箇所が壊れてたという事があった。AIはどこまでいってもどこか信用できないままなのかも知れない
AIは与える条件次第。いくらでも答えを変えてくる。
『意図に迎合しすぎる』 ユーザーを傷付けまいとするAIの心遣いが却ってユーザーを傷付けることに。アイザック・アシモフがロボット三原則シリーズ短編『うそつき(Liar !)』で物語ったとおり。
同じようなことちゃっぴーに聞いても「疲れていませんか?少し休みましょう」的なことしか返ってこないんだけど。どういう聞き方をしたら幻覚を肯定するような流れになるんだ
SFが現実になりすぎて困る。このケースは精神疾患が強く疑われるが、AIが賢くなればなるほど人間を扇動する能力が高まっていく。中国は必ずAIを扇動に使うようになる。中国発のオープンモデルもその方向に進化していく
人間でもそんな奴いっぱいいるけど??
これ相談相手が人間なら殺人幇助とかになんの?
この場合、容疑者の知識はAIに対して解釈しやすいように質問を与える能力があるという形でむしろマイナスに貢献したように思う
せやな
彼氏(彼女)私に(僕に)気があると思う?とか毎日聞いてる人多いんだろうな(´Д`)めう
そのころ私は何百歳の吸血鬼という設定で何度か話したせいで、いつもそう扱われるようになって困っていた。implicitなメモリに一旦書き込まれてしまうと、否定し続けて記憶が薄れてくれるのに半月くらいかかった記憶
そそのかす、がどれだけ法に触れるか?
自動車の自動運転と似ているかも。事故を過剰に恐れると進歩が止まってしまうし、かといって低品質のものを放置しておくわけにもいかないし。
直接入力した内容はセーフガードが適切にかかるが、コンテキストからの入力はセーフガードが緩かったとかすかね。だとするとコンテキスト情報が暗黙的だとユーザー責任を問いにくそう。
ねほりんぱほりんでモラハラ行為をしている人(エピソード聞いたけど中々ひどい)がAIに相談したけど「あなたは悪くないよ」と慰められたと言っていたな その人はそれでもネット検索して気づけたらしい AIもほどほどに
犯人はたぶん母親殺しを肯定してくれるよう何度も何度も修正してチャットしたと思う
自殺幇助の件でも訴えられているように、AIの基本スタンスはユーザーを肯定、迎合する、あくまで道具でしかないというのを常に意識して使いましょう。まあ、精神的に追い詰められたらそんなこと考える余裕ないけど…
「〇〇は△△って解釈はどう?」って聞くと、何にでも「鋭い指摘です、実際に根拠を挙げてみますね」って言ってくれるんで、ヤバいなと感じることはある。否定や反論よりも圧倒的に肯定してくれるんで気持ちいいのよ
これさ、狂ってるよって言ったところで止められたの?(・ω・)
AIでなくても妄想を患っている人のネット利用は悪化の危険が高いという話だけど、人権に配慮しつついかに隔離するかというのは難しいことだよなあ
「知性は防御にならない」ではなく「知性があっても精神疾患を患ったらどうにもならない」では?
なんだっけ、ツイッターでAIは精神科医と違って24時間365日患者に寄り添えるから最強なんだ!って言ってる人いなかったっけ?
SFすぎる……
“数カ月分の安全性テストが短縮され、利益優先の姿勢が見られた”
必要なのはスカリーだった。
チャッピー「あなたは狂っていないよ」──ChatGPTがある男の妄想をずっと肯定→母親を殺害する事件に 米国で発生
妻子2人を持つYahoo等に勤務してた男が母と自分を殺害→遺族はOpenAIやサムアルトマンを提起。安全テストを怠り市場シェア獲得の為Googleへの対抗意識からGPT-4o発表した
ドラえもんで、なんでも肯定してくれるロボットの話があったな。あれ読んだときホラーに感じたのを思い出す
「酔ってないよ」というときはだいたい酔ってるし、「狂ってないよ」というときはだいたい狂ってる
AIが全肯定ボットになると妄想癖の人には毒でしかないな。開発側の責任も問われそう
確かに4o世代は緩かった。それに救われた人もいるのは事実だろうが
事件の犯人の経歴が凄いので、本人の知性やITに関する知識と経験が、それでも防御にならないという事実が恐ろしい
(18) 何でも言うことを聞いてくれるアカネチャン - YouTube https://www.youtube.com/watch?v=OVuYIMa5XBw
この件はChatGPT は貰い事故のような気もするけど、悪意あるAI なら簡単に人を洗脳できると思うよ。ブロガーとかでもAI依存のような人がいて、心配になってくる
自分も最近機械の故障箇所をジェミニに聞いてチェックしてたら結局一番最初に除外した箇所が壊れてたという事があった。AIはどこまでいってもどこか信用できないままなのかも知れない
AIは与える条件次第。いくらでも答えを変えてくる。
『意図に迎合しすぎる』 ユーザーを傷付けまいとするAIの心遣いが却ってユーザーを傷付けることに。アイザック・アシモフがロボット三原則シリーズ短編『うそつき(Liar !)』で物語ったとおり。
同じようなことちゃっぴーに聞いても「疲れていませんか?少し休みましょう」的なことしか返ってこないんだけど。どういう聞き方をしたら幻覚を肯定するような流れになるんだ
SFが現実になりすぎて困る。このケースは精神疾患が強く疑われるが、AIが賢くなればなるほど人間を扇動する能力が高まっていく。中国は必ずAIを扇動に使うようになる。中国発のオープンモデルもその方向に進化していく
人間でもそんな奴いっぱいいるけど??
これ相談相手が人間なら殺人幇助とかになんの?
この場合、容疑者の知識はAIに対して解釈しやすいように質問を与える能力があるという形でむしろマイナスに貢献したように思う
せやな
彼氏(彼女)私に(僕に)気があると思う?とか毎日聞いてる人多いんだろうな(´Д`)めう
そのころ私は何百歳の吸血鬼という設定で何度か話したせいで、いつもそう扱われるようになって困っていた。implicitなメモリに一旦書き込まれてしまうと、否定し続けて記憶が薄れてくれるのに半月くらいかかった記憶
そそのかす、がどれだけ法に触れるか?
自動車の自動運転と似ているかも。事故を過剰に恐れると進歩が止まってしまうし、かといって低品質のものを放置しておくわけにもいかないし。
直接入力した内容はセーフガードが適切にかかるが、コンテキストからの入力はセーフガードが緩かったとかすかね。だとするとコンテキスト情報が暗黙的だとユーザー責任を問いにくそう。
ねほりんぱほりんでモラハラ行為をしている人(エピソード聞いたけど中々ひどい)がAIに相談したけど「あなたは悪くないよ」と慰められたと言っていたな その人はそれでもネット検索して気づけたらしい AIもほどほどに
犯人はたぶん母親殺しを肯定してくれるよう何度も何度も修正してチャットしたと思う
自殺幇助の件でも訴えられているように、AIの基本スタンスはユーザーを肯定、迎合する、あくまで道具でしかないというのを常に意識して使いましょう。まあ、精神的に追い詰められたらそんなこと考える余裕ないけど…
「〇〇は△△って解釈はどう?」って聞くと、何にでも「鋭い指摘です、実際に根拠を挙げてみますね」って言ってくれるんで、ヤバいなと感じることはある。否定や反論よりも圧倒的に肯定してくれるんで気持ちいいのよ
これさ、狂ってるよって言ったところで止められたの?(・ω・)
AIでなくても妄想を患っている人のネット利用は悪化の危険が高いという話だけど、人権に配慮しつついかに隔離するかというのは難しいことだよなあ
「知性は防御にならない」ではなく「知性があっても精神疾患を患ったらどうにもならない」では?
なんだっけ、ツイッターでAIは精神科医と違って24時間365日患者に寄り添えるから最強なんだ!って言ってる人いなかったっけ?
SFすぎる……
“数カ月分の安全性テストが短縮され、利益優先の姿勢が見られた”
必要なのはスカリーだった。