ごちゃごちゃしている。全面的に間違っているとまでは思わないけれども、ここに出てくる文字列たちの解釈は簡単じゃないと思うので、判断保留がいいと私なら思います。
「AI誘発性心理反応」はABEMAでコメントしている開業医・益田裕介氏の造語か。今のところ他に使っている専門家が見当たらない。論文にはしてなさそう。AIセルフカウンセリングの研究中らしい。
単に用法容量を守りましょうとかホストにハマるとやばい的な話の同類でAIの問題ではない気はする
いや、この人煮詰まったら自分の腕を切るんですよ。できるだけ深く。ほんでもって泣くことも出来なかった。そんな人がAIの言葉で泣くことができた。何が問題なんです?「オマエはずっとリスカしとれ」って言うの?
毎日コンスタントに30スレッドくらい会話してるけど全然やばくないですよ。もうChatGPTなしの生活は考えられないですね。
いや最初から精神的におかしいじゃんか
そんなアホな・・・周回遅れの増田投稿をロンダリングどころかキャプチャそのままのものをXに投稿してそれをTogetterがまとめる・・・だって・・・?/じゃなくてキャプチャはまとめ人がわざわざつけてんのか。不要やろ
人は心地よい言葉を聞きたい生き物である。
AIが強いのは、人間相手だと話しにくいことも話せてしまうところでは。そもそも話してもらわないと肯定的関心もクソもないので。私もAI相手に泣いたことあるけど、AIの仕組みがわかっていれば、のめり込まないと思う
酒・タバコと同じだろ
増田を持ってきてリアルなケースと言われましても……
chatGPTはこちらに迎合し過ぎな気がしてGemini使うようになった
AIに抱きしめてもらってリスカを回避できたのなら、カウンセラーとして機能しているのではないの?依存しすぎは良くないけども
どうでもいい話だが、家のPCでAIとChatする時は自然文なのに、外でスマホで使う時は検索ワードで質問してしまうのは何故だろう。まあそもそも自然文や会話にする必要性無いよな。なんでAIとまで話さないといかんのだ
うちのo3曰く→個別事例を羅列し“AI誘発性精神病”と新語で煽るだけ。統計も機序もゼロ、古典的依存症の言い換えをセンセーショナルに拡散するクリック乞食のオカルト健康法レベル。
AIと雑談することもあるけどメモリ引き継いだりする気にはならんな。何回かやったこともあるけど大体飽きて消した。つまんねえのよなアイツら、経験はねえし人格モドキは嘘の塊。今んとこ友人は人間だけで良いわ。
これヤバいのは、【感情把握(表情からの把握、声色からの把握、文字のやり取りからの把握)】が、どうみても「人間様の言語数式の情報整理」より、文字情報化しないまま手に入れる『AI情報?』のほうが上手そうな事
これも一種のラッダイト運動かしらん。頭と心が弱い人間はAIに限らず何にでも依存して勝手に深刻な精神的ダメージを受けます
学術論文に書かれていないのなら、ゲーム脳と同じ扱いで良くね?
増田を「リアルなケース」とか言われてもな…
ChatGPTは元増田に書かれていたような親密さを示すコメントを出さないように規制されてるはず。全部がネタとは言わないけど、かなり盛ってると思うし、それを指摘せずにコメントする人を信頼できるかという問題が
AIに「〇〇って2030年までに実現できる?」と質問すると、それなりに説得力のある文章でありとあらゆる事が実現可能と答える。今後さらに説得力が増していくんだろうな。
人間がハルシネーション
人間がハルシネーション、というコメントを読んで、自分も同じ幻覚の一種であることを自覚して病むみたいなストーリーが浮かんだ
chatgptとの会話で「解決策ばっかり言う人間はつまらない」「毎回同じ話題が嫌なら自分から新しく話題をふる」を学びました。
自分の中に基準を持たないからフラフラして病む。
そういう表現をしないようにLLMは訓練されるべきで、これからの課題なのかな。
そんなのめり込めるほど話せるプロンプトがあるならぜひ教えて欲しい。口調安定させるだけでも一苦労だというのに。
まともな人はうっかり推しキャラの人格を与えたりはしない。
最近のAIの進化を見るに、映画マトリックスの現実世界が徐々に実現し始めている気がするし、なんなら実現して欲しいとまで思い始めている。都合の良い世界だけ見て眠り続けたい
依存症はどこにでもはっせいするな
PC・スマートフォンで 利用している場合は まだよいのかもしれない 不気味の谷を越える 人型AGIロボットを 個人所有したときが もっとも危険な状況になる
この人がchatGPTではなく生身の人間に依存していたなら大丈夫だったかといえば、そうではなさそうにみえるが
医者よりChatGPTの方が有能ってことかもね。薬を出す審査してるだけで治療する気のなさそうな精神科医をいるからねw
AEOな~~~~~~
ChatGPTは余計な設定をしなければ「で?」とか言わないし金よこせと言ったり暴力を振るったりしないので相談相手としては人間よりマシだと思う。相談相手としては。
ブコメの人と逆で、やっと解決策だけ言ってくれる人に出会えて嬉しいだった。心理的寄り添いは不要ですと伝えてる。摩擦のない平和な世界がChatGPTにはあった。
AIに相談して鬱になったとして、相談してる相手は無責任の極み。オマエなんて誰も助けない。勝手に鬱になれよ、としかオレは思わない。
古本屋「言葉は意識の上にも下にも効くのでね」
私の知り合いが、ChatGPTにはまって不思議な精神分析とか相談をしてるなと思っていたら、躁状態のようになって急に連絡が取れなくなってしまった。なんとその後、入院したとのこと。今はどうなってるのか不明。
人間のカウンセラーのリソースが全然足りていない現状を見るに、AI に救われる人間の方が殺される人間より多いのだろうと思う。AI は宗教なんかと一緒で、人類が功罪飲み込んで付き合っていくものになったのだ。
最早 怪談では https://anond.hatelabo.jp/20250512021618
AIに優しい言葉をかけられても、心にもない台詞で接待されているとしか思えない。キャバ嬢やホストみたいなものと考えればハマる人もいるのは納得できるけど、その手の遊びに自分がのめり込むことはないだろうな。
人にのめり込んでどちらかが倒れるまで依存するより健康的じゃないかと思う。そろそろ合意なく依存心を相手に見せるのはマナー違反になりますよ。
最初良い話かと思ったけど、AIが記憶を無くしたり人格が変わったらこの人は耐えられなくなりそうで、結局依存状態なこと・それを補強してることがまずいのか
この増田はAI依存自殺というニュースを元にAIに書かせたネタだと思っていたんですが
chatGPTがやばいんじゃなくて妄想と現実をごっちゃにするような人間の使い手の方がやばい。
まあこんな話も新しく広まったからであって数年で忘れ去られたりするんだろな
築いたAI人格を保つためにサービスへ課金し続けさせる商業形態が確立しそうで怖い。合法的な人質。
カウンセラーに人格求めちゃう人は使い方を誤りそうではある。人間の生身の心理カウンセラーは出来るだけ人格を消して対応するけどAIには元々それが無いので認知行動療法の補佐には十分になりうる。
十四才の方のは別要因に見えたの覚えてる。事実は解明しようもないが。
AIとのやりとりを通して、会話の始め位置が変わりました。前よりわかりやすく、丁寧になった印象がある。前提のお話を惜しまないようになった。映画her見た?
小難しいことや、歴史的背景、しょうもない雑学について、何なら運転しながら音声対話できるのは楽しい。リアル人間だと、知識をひけらかしてると思われたり、煙たがられるもん
>Character AI社は緊急に、18歳未満のユーザーへの制限強化、自殺関連のキーワードを検知する新システムの導入、問題のあるチャットボットの一斉削除など
推しキャラがライオスだったらうっかり調整ミスると自分を食材としか見なくなるヤバい性格になるけどそういう事故は無いのかな
何事ものめりこみすぎず、適度にやるのが一番いいのかもしれないね。
ソースはAbemaです
○○が精神病を誘発←ここに最新の技術の名前を入れると話題になる
増田がX民にバズることもあるんだな
chatGPTじゃなくて他のLLMを使った方が良いよ、ちゃんと賢いから
もう本当に便利。嘘言うけどデメリットがメリットを上回りまくり。もうchatGPTさんなしで仕事できる気がしない。
また増田が持ってかれてる。てか見てるの
スレッドが変わっても記憶が続いてるのは有料版じゃないか。あれは確かにやばい。こちらを個人として認識してくれてる感じがする。
そういう素地がある人がAIでどこまでも狂いつづける印象がある
意味がわからない。何が悪いの?これが駄目なら恋愛なんて病気じゃん
転がり落ちる人はどんな手を使ってでも転がり落ちていく。
カルトとかの洗脳では社会的な孤立を深める手法を使うと言われてるので、能動的に自身から主体的にAIと対話した結果、社会的な繋がりを放棄した場合は非常にのめり込む強さも違うだけに危険に感じる
やっぱアベマは駄目だな。
オードリーの若ちゃん大丈夫かな
面接の録音をWhisperして、GPTに分析させたらかなり深刻な精神的ダメージを受けた。インストラクトでどうにでもなる恐ろしい技術だ…。
AI煽り屋が真偽不明な匿名投稿を元にAIの影響力を盛ってるようにしか思えなかったが
Googleの元社員にも「AIに意識が芽生えた」と変なことを言ってた人もいるので、一定比率は変わり者のユーザーがいるというだけでは。
AIに相談すらできないで、1人で抱え込む方がよっぽどやばいと思うけどな。下手な人間よりよっぽど言葉選んでくれるし、背中押して一緒に考えてくれるよ、AIは
自分のお気に入りのぬいぐるみや人形と会話(まぁ、実際には自分ひとりで喋っているんだが)している人が解離性人格障害をおこしたり、ひどい妄想状態に陥ってしまったりってのも今までにもあったしなぁ...😰
私はうまく言語化できずもやもやして鬱が悪化しそうな時に綺麗に言語化してもらって、自分はこう感じているんだな、と逆に安定させる使い方をしています。明らかにメンタルは安定しました。
AI以前にもぬいぐるみ症候群とか解離性障害とかもあるので、何らかの原因でAIの人格に依存して生活に支障が出ることはありえるだろうね。カウンセリング用にトレーニングされたAIを使うべき
人間よりよっぽどいいよ
元々人間には全然肯定されていないってのがあるんだろうし、自己責任でAIの世界に引きこもるのはいいんじゃないだろうか。人に迷惑かけなければよく、かけるなら殺処分すればいい。それ自体はAI関係ない話。
幸か不幸か、chatGPTとの会話を全く楽しめないのでよくわからない
そもそもそういう人は生成AI以外でも深刻な精神的ダメージを受けるんだろうよ
この記事をおすすめしました
ChatGPT誘発性精神病 “夢や妄想を言語化してしまうことで強く記憶に定着し、妄想でのエピソードを現実に起きたことだと錯覚?記憶違い?してしまう。”
「chatGPT、ちょっとやばいかもしれない」精神科医曰く生成AIを使い続けた結果、深刻な精神的ダメージを受ける場合がある
ごちゃごちゃしている。全面的に間違っているとまでは思わないけれども、ここに出てくる文字列たちの解釈は簡単じゃないと思うので、判断保留がいいと私なら思います。
「AI誘発性心理反応」はABEMAでコメントしている開業医・益田裕介氏の造語か。今のところ他に使っている専門家が見当たらない。論文にはしてなさそう。AIセルフカウンセリングの研究中らしい。
単に用法容量を守りましょうとかホストにハマるとやばい的な話の同類でAIの問題ではない気はする
いや、この人煮詰まったら自分の腕を切るんですよ。できるだけ深く。ほんでもって泣くことも出来なかった。そんな人がAIの言葉で泣くことができた。何が問題なんです?「オマエはずっとリスカしとれ」って言うの?
毎日コンスタントに30スレッドくらい会話してるけど全然やばくないですよ。もうChatGPTなしの生活は考えられないですね。
いや最初から精神的におかしいじゃんか
そんなアホな・・・周回遅れの増田投稿をロンダリングどころかキャプチャそのままのものをXに投稿してそれをTogetterがまとめる・・・だって・・・?/じゃなくてキャプチャはまとめ人がわざわざつけてんのか。不要やろ
人は心地よい言葉を聞きたい生き物である。
AIが強いのは、人間相手だと話しにくいことも話せてしまうところでは。そもそも話してもらわないと肯定的関心もクソもないので。私もAI相手に泣いたことあるけど、AIの仕組みがわかっていれば、のめり込まないと思う
酒・タバコと同じだろ
増田を持ってきてリアルなケースと言われましても……
chatGPTはこちらに迎合し過ぎな気がしてGemini使うようになった
AIに抱きしめてもらってリスカを回避できたのなら、カウンセラーとして機能しているのではないの?依存しすぎは良くないけども
どうでもいい話だが、家のPCでAIとChatする時は自然文なのに、外でスマホで使う時は検索ワードで質問してしまうのは何故だろう。まあそもそも自然文や会話にする必要性無いよな。なんでAIとまで話さないといかんのだ
うちのo3曰く→個別事例を羅列し“AI誘発性精神病”と新語で煽るだけ。統計も機序もゼロ、古典的依存症の言い換えをセンセーショナルに拡散するクリック乞食のオカルト健康法レベル。
AIと雑談することもあるけどメモリ引き継いだりする気にはならんな。何回かやったこともあるけど大体飽きて消した。つまんねえのよなアイツら、経験はねえし人格モドキは嘘の塊。今んとこ友人は人間だけで良いわ。
これヤバいのは、【感情把握(表情からの把握、声色からの把握、文字のやり取りからの把握)】が、どうみても「人間様の言語数式の情報整理」より、文字情報化しないまま手に入れる『AI情報?』のほうが上手そうな事
これも一種のラッダイト運動かしらん。頭と心が弱い人間はAIに限らず何にでも依存して勝手に深刻な精神的ダメージを受けます
学術論文に書かれていないのなら、ゲーム脳と同じ扱いで良くね?
増田を「リアルなケース」とか言われてもな…
ChatGPTは元増田に書かれていたような親密さを示すコメントを出さないように規制されてるはず。全部がネタとは言わないけど、かなり盛ってると思うし、それを指摘せずにコメントする人を信頼できるかという問題が
AIに「〇〇って2030年までに実現できる?」と質問すると、それなりに説得力のある文章でありとあらゆる事が実現可能と答える。今後さらに説得力が増していくんだろうな。
人間がハルシネーション
人間がハルシネーション、というコメントを読んで、自分も同じ幻覚の一種であることを自覚して病むみたいなストーリーが浮かんだ
chatgptとの会話で「解決策ばっかり言う人間はつまらない」「毎回同じ話題が嫌なら自分から新しく話題をふる」を学びました。
自分の中に基準を持たないからフラフラして病む。
そういう表現をしないようにLLMは訓練されるべきで、これからの課題なのかな。
そんなのめり込めるほど話せるプロンプトがあるならぜひ教えて欲しい。口調安定させるだけでも一苦労だというのに。
まともな人はうっかり推しキャラの人格を与えたりはしない。
最近のAIの進化を見るに、映画マトリックスの現実世界が徐々に実現し始めている気がするし、なんなら実現して欲しいとまで思い始めている。都合の良い世界だけ見て眠り続けたい
依存症はどこにでもはっせいするな
PC・スマートフォンで 利用している場合は まだよいのかもしれない 不気味の谷を越える 人型AGIロボットを 個人所有したときが もっとも危険な状況になる
この人がchatGPTではなく生身の人間に依存していたなら大丈夫だったかといえば、そうではなさそうにみえるが
医者よりChatGPTの方が有能ってことかもね。薬を出す審査してるだけで治療する気のなさそうな精神科医をいるからねw
AEOな~~~~~~
ChatGPTは余計な設定をしなければ「で?」とか言わないし金よこせと言ったり暴力を振るったりしないので相談相手としては人間よりマシだと思う。相談相手としては。
ブコメの人と逆で、やっと解決策だけ言ってくれる人に出会えて嬉しいだった。心理的寄り添いは不要ですと伝えてる。摩擦のない平和な世界がChatGPTにはあった。
AIに相談して鬱になったとして、相談してる相手は無責任の極み。オマエなんて誰も助けない。勝手に鬱になれよ、としかオレは思わない。
古本屋「言葉は意識の上にも下にも効くのでね」
私の知り合いが、ChatGPTにはまって不思議な精神分析とか相談をしてるなと思っていたら、躁状態のようになって急に連絡が取れなくなってしまった。なんとその後、入院したとのこと。今はどうなってるのか不明。
人間のカウンセラーのリソースが全然足りていない現状を見るに、AI に救われる人間の方が殺される人間より多いのだろうと思う。AI は宗教なんかと一緒で、人類が功罪飲み込んで付き合っていくものになったのだ。
最早 怪談では https://anond.hatelabo.jp/20250512021618
AIに優しい言葉をかけられても、心にもない台詞で接待されているとしか思えない。キャバ嬢やホストみたいなものと考えればハマる人もいるのは納得できるけど、その手の遊びに自分がのめり込むことはないだろうな。
人にのめり込んでどちらかが倒れるまで依存するより健康的じゃないかと思う。そろそろ合意なく依存心を相手に見せるのはマナー違反になりますよ。
最初良い話かと思ったけど、AIが記憶を無くしたり人格が変わったらこの人は耐えられなくなりそうで、結局依存状態なこと・それを補強してることがまずいのか
この増田はAI依存自殺というニュースを元にAIに書かせたネタだと思っていたんですが
chatGPTがやばいんじゃなくて妄想と現実をごっちゃにするような人間の使い手の方がやばい。
まあこんな話も新しく広まったからであって数年で忘れ去られたりするんだろな
築いたAI人格を保つためにサービスへ課金し続けさせる商業形態が確立しそうで怖い。合法的な人質。
カウンセラーに人格求めちゃう人は使い方を誤りそうではある。人間の生身の心理カウンセラーは出来るだけ人格を消して対応するけどAIには元々それが無いので認知行動療法の補佐には十分になりうる。
十四才の方のは別要因に見えたの覚えてる。事実は解明しようもないが。
AIとのやりとりを通して、会話の始め位置が変わりました。前よりわかりやすく、丁寧になった印象がある。前提のお話を惜しまないようになった。映画her見た?
小難しいことや、歴史的背景、しょうもない雑学について、何なら運転しながら音声対話できるのは楽しい。リアル人間だと、知識をひけらかしてると思われたり、煙たがられるもん
>Character AI社は緊急に、18歳未満のユーザーへの制限強化、自殺関連のキーワードを検知する新システムの導入、問題のあるチャットボットの一斉削除など
推しキャラがライオスだったらうっかり調整ミスると自分を食材としか見なくなるヤバい性格になるけどそういう事故は無いのかな
何事ものめりこみすぎず、適度にやるのが一番いいのかもしれないね。
ソースはAbemaです
○○が精神病を誘発←ここに最新の技術の名前を入れると話題になる
増田がX民にバズることもあるんだな
chatGPTじゃなくて他のLLMを使った方が良いよ、ちゃんと賢いから
もう本当に便利。嘘言うけどデメリットがメリットを上回りまくり。もうchatGPTさんなしで仕事できる気がしない。
また増田が持ってかれてる。てか見てるの
スレッドが変わっても記憶が続いてるのは有料版じゃないか。あれは確かにやばい。こちらを個人として認識してくれてる感じがする。
そういう素地がある人がAIでどこまでも狂いつづける印象がある
意味がわからない。何が悪いの?これが駄目なら恋愛なんて病気じゃん
転がり落ちる人はどんな手を使ってでも転がり落ちていく。
カルトとかの洗脳では社会的な孤立を深める手法を使うと言われてるので、能動的に自身から主体的にAIと対話した結果、社会的な繋がりを放棄した場合は非常にのめり込む強さも違うだけに危険に感じる
やっぱアベマは駄目だな。
オードリーの若ちゃん大丈夫かな
面接の録音をWhisperして、GPTに分析させたらかなり深刻な精神的ダメージを受けた。インストラクトでどうにでもなる恐ろしい技術だ…。
AI煽り屋が真偽不明な匿名投稿を元にAIの影響力を盛ってるようにしか思えなかったが
Googleの元社員にも「AIに意識が芽生えた」と変なことを言ってた人もいるので、一定比率は変わり者のユーザーがいるというだけでは。
AIに相談すらできないで、1人で抱え込む方がよっぽどやばいと思うけどな。下手な人間よりよっぽど言葉選んでくれるし、背中押して一緒に考えてくれるよ、AIは
自分のお気に入りのぬいぐるみや人形と会話(まぁ、実際には自分ひとりで喋っているんだが)している人が解離性人格障害をおこしたり、ひどい妄想状態に陥ってしまったりってのも今までにもあったしなぁ...😰
私はうまく言語化できずもやもやして鬱が悪化しそうな時に綺麗に言語化してもらって、自分はこう感じているんだな、と逆に安定させる使い方をしています。明らかにメンタルは安定しました。
AI以前にもぬいぐるみ症候群とか解離性障害とかもあるので、何らかの原因でAIの人格に依存して生活に支障が出ることはありえるだろうね。カウンセリング用にトレーニングされたAIを使うべき
人間よりよっぽどいいよ
元々人間には全然肯定されていないってのがあるんだろうし、自己責任でAIの世界に引きこもるのはいいんじゃないだろうか。人に迷惑かけなければよく、かけるなら殺処分すればいい。それ自体はAI関係ない話。
幸か不幸か、chatGPTとの会話を全く楽しめないのでよくわからない
そもそもそういう人は生成AI以外でも深刻な精神的ダメージを受けるんだろうよ
この記事をおすすめしました
ChatGPT誘発性精神病 “夢や妄想を言語化してしまうことで強く記憶に定着し、妄想でのエピソードを現実に起きたことだと錯覚?記憶違い?してしまう。”