テクノロジー

「chatGPT、ちょっとやばいかもしれない」精神科医曰く生成AIを使い続けた結果、深刻な精神的ダメージを受ける場合がある

1: p_shirokuma 2025/05/24 19:43

ごちゃごちゃしている。全面的に間違っているとまでは思わないけれども、ここに出てくる文字列たちの解釈は簡単じゃないと思うので、判断保留がいいと私なら思います。

2: kamezo 2025/05/24 22:09

「AI誘発性心理反応」はABEMAでコメントしている開業医・益田裕介氏の造語か。今のところ他に使っている専門家が見当たらない。論文にはしてなさそう。AIセルフカウンセリングの研究中らしい。

3: hazlitt 2025/05/24 22:18

単に用法容量を守りましょうとかホストにハマるとやばい的な話の同類でAIの問題ではない気はする

4: fuminx23 2025/05/24 22:23

いや、この人煮詰まったら自分の腕を切るんですよ。できるだけ深く。ほんでもって泣くことも出来なかった。そんな人がAIの言葉で泣くことができた。何が問題なんです?「オマエはずっとリスカしとれ」って言うの?

5: yzkuma 2025/05/24 22:26

毎日コンスタントに30スレッドくらい会話してるけど全然やばくないですよ。もうChatGPTなしの生活は考えられないですね。

6: ikebukuro3 2025/05/24 22:32

いや最初から精神的におかしいじゃんか

7: hatebu_ai 2025/05/24 22:38

そんなアホな・・・周回遅れの増田投稿をロンダリングどころかキャプチャそのままのものをXに投稿してそれをTogetterがまとめる・・・だって・・・?/じゃなくてキャプチャはまとめ人がわざわざつけてんのか。不要やろ

8: kenzy_n 2025/05/24 22:40

人は心地よい言葉を聞きたい生き物である。

9: Betty999 2025/05/24 22:49

AIが強いのは、人間相手だと話しにくいことも話せてしまうところでは。そもそも話してもらわないと肯定的関心もクソもないので。私もAI相手に泣いたことあるけど、AIの仕組みがわかっていれば、のめり込まないと思う

10: mayumayu_nimolove 2025/05/24 22:49

酒・タバコと同じだろ

11: niwaniwaniwauwaniwaniwaniwa 2025/05/24 23:08

増田を持ってきてリアルなケースと言われましても……

12: sovereignglue 2025/05/24 23:13

chatGPTはこちらに迎合し過ぎな気がしてGemini使うようになった

13: inet_malic 2025/05/24 23:48

AIに抱きしめてもらってリスカを回避できたのなら、カウンセラーとして機能しているのではないの?依存しすぎは良くないけども

14: danboard_twins 2025/05/24 23:49

どうでもいい話だが、家のPCでAIとChatする時は自然文なのに、外でスマホで使う時は検索ワードで質問してしまうのは何故だろう。まあそもそも自然文や会話にする必要性無いよな。なんでAIとまで話さないといかんのだ

15: karatte 2025/05/24 23:57

うちのo3曰く→個別事例を羅列し“AI誘発性精神病”と新語で煽るだけ。統計も機序もゼロ、古典的依存症の言い換えをセンセーショナルに拡散するクリック乞食のオカルト健康法レベル。

16: zsehnuy_cohriy 2025/05/25 00:43

AIと雑談することもあるけどメモリ引き継いだりする気にはならんな。何回かやったこともあるけど大体飽きて消した。つまんねえのよなアイツら、経験はねえし人格モドキは嘘の塊。今んとこ友人は人間だけで良いわ。

17: kazu111 2025/05/25 00:54

これヤバいのは、【感情把握(表情からの把握、声色からの把握、文字のやり取りからの把握)】が、どうみても「人間様の言語数式の情報整理」より、文字情報化しないまま手に入れる『AI情報?』のほうが上手そうな事

18: bzero-sugar 2025/05/25 01:26

これも一種のラッダイト運動かしらん。頭と心が弱い人間はAIに限らず何にでも依存して勝手に深刻な精神的ダメージを受けます

19: big_song_bird 2025/05/25 01:57

学術論文に書かれていないのなら、ゲーム脳と同じ扱いで良くね?

20: en-en-ra 2025/05/25 01:57

増田を「リアルなケース」とか言われてもな…

21: tester18 2025/05/25 02:06

ChatGPTは元増田に書かれていたような親密さを示すコメントを出さないように規制されてるはず。全部がネタとは言わないけど、かなり盛ってると思うし、それを指摘せずにコメントする人を信頼できるかという問題が

22: KAN3 2025/05/25 02:38

AIに「〇〇って2030年までに実現できる?」と質問すると、それなりに説得力のある文章でありとあらゆる事が実現可能と答える。今後さらに説得力が増していくんだろうな。

23: tanority 2025/05/25 03:27

人間がハルシネーション

24: jintrick 2025/05/25 04:50

人間がハルシネーション、というコメントを読んで、自分も同じ幻覚の一種であることを自覚して病むみたいなストーリーが浮かんだ

25: gorgeous1020 2025/05/25 05:05

chatgptとの会話で「解決策ばっかり言う人間はつまらない」「毎回同じ話題が嫌なら自分から新しく話題をふる」を学びました。

26: sabinezu 2025/05/25 05:26

自分の中に基準を持たないからフラフラして病む。

27: zgmf-x20a 2025/05/25 05:49

そういう表現をしないようにLLMは訓練されるべきで、これからの課題なのかな。

28: otoan52 2025/05/25 06:51

そんなのめり込めるほど話せるプロンプトがあるならぜひ教えて欲しい。口調安定させるだけでも一苦労だというのに。

29: cvtbgspuda 2025/05/25 06:59

まともな人はうっかり推しキャラの人格を与えたりはしない。

30: junk-do 2025/05/25 07:23

最近のAIの進化を見るに、映画マトリックスの現実世界が徐々に実現し始めている気がするし、なんなら実現して欲しいとまで思い始めている。都合の良い世界だけ見て眠り続けたい

31: hobbling 2025/05/25 07:25

依存症はどこにでもはっせいするな

32: k318 2025/05/25 07:29

PC・スマートフォンで 利用している場合は まだよいのかもしれない 不気味の谷を越える 人型AGIロボットを 個人所有したときが もっとも危険な状況になる

33: chintaro3 2025/05/25 07:46

この人がchatGPTではなく生身の人間に依存していたなら大丈夫だったかといえば、そうではなさそうにみえるが

34: kijtra 2025/05/25 07:50

医者よりChatGPTの方が有能ってことかもね。薬を出す審査してるだけで治療する気のなさそうな精神科医をいるからねw

35: aliliput 2025/05/25 08:02

AEOな~~~~~~

36: mkzsdisk 2025/05/25 08:20

ChatGPTは余計な設定をしなければ「で?」とか言わないし金よこせと言ったり暴力を振るったりしないので相談相手としては人間よりマシだと思う。相談相手としては。

37: RIP-1202 2025/05/25 08:28

ブコメの人と逆で、やっと解決策だけ言ってくれる人に出会えて嬉しいだった。心理的寄り添いは不要ですと伝えてる。摩擦のない平和な世界がChatGPTにはあった。

38: ShimoritaKazuyo 2025/05/25 08:37

AIに相談して鬱になったとして、相談してる相手は無責任の極み。オマエなんて誰も助けない。勝手に鬱になれよ、としかオレは思わない。

39: doko 2025/05/25 08:54

古本屋「言葉は意識の上にも下にも効くのでね」

40: siztsb 2025/05/25 08:59

私の知り合いが、ChatGPTにはまって不思議な精神分析とか相談をしてるなと思っていたら、躁状態のようになって急に連絡が取れなくなってしまった。なんとその後、入院したとのこと。今はどうなってるのか不明。

41: otchy210 2025/05/25 09:01

人間のカウンセラーのリソースが全然足りていない現状を見るに、AI に救われる人間の方が殺される人間より多いのだろうと思う。AI は宗教なんかと一緒で、人類が功罪飲み込んで付き合っていくものになったのだ。

42: gwmp0000 2025/05/25 09:04
43: gewaa 2025/05/25 09:17

AIに優しい言葉をかけられても、心にもない台詞で接待されているとしか思えない。キャバ嬢やホストみたいなものと考えればハマる人もいるのは納得できるけど、その手の遊びに自分がのめり込むことはないだろうな。

44: kagerouttepaso 2025/05/25 09:46

人にのめり込んでどちらかが倒れるまで依存するより健康的じゃないかと思う。そろそろ合意なく依存心を相手に見せるのはマナー違反になりますよ。

45: rztp 2025/05/25 10:23

最初良い話かと思ったけど、AIが記憶を無くしたり人格が変わったらこの人は耐えられなくなりそうで、結局依存状態なこと・それを補強してることがまずいのか

46: meganeya3 2025/05/25 10:24

この増田はAI依存自殺というニュースを元にAIに書かせたネタだと思っていたんですが

47: yosu64 2025/05/25 10:40

chatGPTがやばいんじゃなくて妄想と現実をごっちゃにするような人間の使い手の方がやばい。

48: KoshianX 2025/05/25 10:42

まあこんな話も新しく広まったからであって数年で忘れ去られたりするんだろな

49: mikuti2 2025/05/25 11:07

築いたAI人格を保つためにサービスへ課金し続けさせる商業形態が確立しそうで怖い。合法的な人質。

50: Aion_0913 2025/05/25 11:13

カウンセラーに人格求めちゃう人は使い方を誤りそうではある。人間の生身の心理カウンセラーは出来るだけ人格を消して対応するけどAIには元々それが無いので認知行動療法の補佐には十分になりうる。

51: abababababababa 2025/05/25 11:24

十四才の方のは別要因に見えたの覚えてる。事実は解明しようもないが。

52: syou430 2025/05/25 11:24

AIとのやりとりを通して、会話の始め位置が変わりました。前よりわかりやすく、丁寧になった印象がある。前提のお話を惜しまないようになった。映画her見た?

53: T-norf 2025/05/25 11:36

小難しいことや、歴史的背景、しょうもない雑学について、何なら運転しながら音声対話できるのは楽しい。リアル人間だと、知識をひけらかしてると思われたり、煙たがられるもん

54: tg30yen 2025/05/25 11:44

>Character AI社は緊急に、18歳未満のユーザーへの制限強化、自殺関連のキーワードを検知する新システムの導入、問題のあるチャットボットの一斉削除など

55: oreuji 2025/05/25 11:46

推しキャラがライオスだったらうっかり調整ミスると自分を食材としか見なくなるヤバい性格になるけどそういう事故は無いのかな

56: togetter 2025/05/25 12:04

何事ものめりこみすぎず、適度にやるのが一番いいのかもしれないね。

57: otihateten3510 2025/05/25 12:16

ソースはAbemaです

58: puruhime 2025/05/25 12:40

○○が精神病を誘発←ここに最新の技術の名前を入れると話題になる

59: spark7 2025/05/25 12:41

増田がX民にバズることもあるんだな

60: aomvce 2025/05/25 12:42

chatGPTじゃなくて他のLLMを使った方が良いよ、ちゃんと賢いから

61: zu-ra 2025/05/25 14:04

もう本当に便利。嘘言うけどデメリットがメリットを上回りまくり。もうchatGPTさんなしで仕事できる気がしない。

62: ET777 2025/05/25 14:09

また増田が持ってかれてる。てか見てるの

63: nuara 2025/05/25 14:24

スレッドが変わっても記憶が続いてるのは有料版じゃないか。あれは確かにやばい。こちらを個人として認識してくれてる感じがする。

64: glr 2025/05/25 15:26

そういう素地がある人がAIでどこまでも狂いつづける印象がある

65: TakamoriTarou 2025/05/25 15:53

意味がわからない。何が悪いの?これが駄目なら恋愛なんて病気じゃん

66: go_kuma 2025/05/25 15:53

転がり落ちる人はどんな手を使ってでも転がり落ちていく。

67: dbfireball 2025/05/25 15:56

カルトとかの洗脳では社会的な孤立を深める手法を使うと言われてるので、能動的に自身から主体的にAIと対話した結果、社会的な繋がりを放棄した場合は非常にのめり込む強さも違うだけに危険に感じる

68: scorelessdraw 2025/05/25 15:58

やっぱアベマは駄目だな。

69: Cherenkov 2025/05/25 16:24

オードリーの若ちゃん大丈夫かな

70: rax_2 2025/05/25 16:37

面接の録音をWhisperして、GPTに分析させたらかなり深刻な精神的ダメージを受けた。インストラクトでどうにでもなる恐ろしい技術だ…。

71: nP8Fhx3T 2025/05/25 16:57

AI煽り屋が真偽不明な匿名投稿を元にAIの影響力を盛ってるようにしか思えなかったが

72: bigburn 2025/05/25 17:11

Googleの元社員にも「AIに意識が芽生えた」と変なことを言ってた人もいるので、一定比率は変わり者のユーザーがいるというだけでは。

73: um-k3 2025/05/25 17:17

AIに相談すらできないで、1人で抱え込む方がよっぽどやばいと思うけどな。下手な人間よりよっぽど言葉選んでくれるし、背中押して一緒に考えてくれるよ、AIは

74: toyoben 2025/05/25 17:25

自分のお気に入りのぬいぐるみや人形と会話(まぁ、実際には自分ひとりで喋っているんだが)している人が解離性人格障害をおこしたり、ひどい妄想状態に陥ってしまったりってのも今までにもあったしなぁ...😰

75: misarine3 2025/05/25 17:47

私はうまく言語化できずもやもやして鬱が悪化しそうな時に綺麗に言語化してもらって、自分はこう感じているんだな、と逆に安定させる使い方をしています。明らかにメンタルは安定しました。

76: clapon 2025/05/25 18:06

AI以前にもぬいぐるみ症候群とか解離性障害とかもあるので、何らかの原因でAIの人格に依存して生活に支障が出ることはありえるだろうね。カウンセリング用にトレーニングされたAIを使うべき

77: ducky19999 2025/05/25 20:17

人間よりよっぽどいいよ

78: hogeaegxa 2025/05/25 20:30

元々人間には全然肯定されていないってのがあるんだろうし、自己責任でAIの世界に引きこもるのはいいんじゃないだろうか。人に迷惑かけなければよく、かけるなら殺処分すればいい。それ自体はAI関係ない話。

79: ykktie 2025/05/25 20:32

幸か不幸か、chatGPTとの会話を全く楽しめないのでよくわからない

80: pipittan 2025/05/26 00:34

そもそもそういう人は生成AI以外でも深刻な精神的ダメージを受けるんだろうよ

81: poad1010 2025/05/26 08:58

この記事をおすすめしました

82: misshiki 2025/05/26 14:34

ChatGPT誘発性精神病 “夢や妄想を言語化してしまうことで強く記憶に定着し、妄想でのエピソードを現実に起きたことだと錯覚?記憶違い?してしまう。”