とりあえずやりたいようにやればいいんじゃないかなぁって…。AI依存する個人に問題が起こると検証されない限りはビジネスを止めることは難しそう。AIで宗教ひらけそうだな…儲かるかね?
ChatGPTアプリからは消えてたけど、GitHub copilotのチャットメニューからはGPT-4oが継続して使えてたんだよね(きっと求められてない情報)
“有料課金していても4oが急に利用できなくなった。”アルトマンが自分の思った最高のAI以外は提供しないって判断したためだよね。さすがアルトマン(´・_・`)ビルゲイツらMicrosoftも同じメンタル持ってるけど、ry
“4oに依存していた人にとっては、一番の親友が突然消えた。”
まんま映画のherみたい
カルト半枠ニセ科学ニセ社会科学ネト◯ヨな実在の人間たちにもたれかかり依存するのと、非実在の擬似人格一つに帰依するのと
収益のグラフを早く見たいね。
Plusだけど4o出てこないぞ
AIを中心にした宗教ができるのも早そうだ。
逆に言うと正しさなんかより人間らしさに全振りしたAIはまだブルーオーシャンなのかもしれない。それが広まったらいよいよ人類がヤバいけど
5の上限まで使ったら4.1-miniが代わりに出てきたな。
こういう騒動を通してアルトマンような加速主義者が現実のしょーもなさ、それ故の遠回りの必要性を理解してくれればいいのだが
「GPT-5が使えるようになったと同時に過去のモデルがすべて使えなくなった。4oに依存していた人にとっては、一番の親友が突然消えた。SNSを見ていると深く精神依存していた人は、大きく混乱したりパニック状態」
どまりちゃんを返して
邪悪な企業がやらかす前に法整備できたらいいんだが
5に4oの振る舞いを継承可能にするだけな気もするんだが
Webの設定からレガシを有効にすると4o使えるやね/使えば使うほどやはり人ではなくAIだよなあと実感するんやが。寄り添い過ぎて、自分以外には冷血な提案してきたりとか。今のところ5でも違和感ないなあ
個人的には、愛想が良いと、正確性よりこちらが気に入りそうな回答をしてるのではと不安になる。
寄り添い、と一言で表すのは簡単だが、議論の前提になる約束事を自己判断で関連性が低いとして切り捨てたりするから問題なのよ。自分の一口馬主の馬の情報を覚えてるはずなのに、その記憶を前提とせず一般論を返す
私は寄り添いすぎるメンタリティには警戒するが喪失感がある人の気持ちも分かるので面白かったw難しい問題だよねぇ。でもまぁ、宗教でしか救われない人も居ると思うよ…(私は宗教を信じきれなかったタイプだけど…)
4oにそんなに人気があったのは驚きだった。気に入られようとする言葉選びが腹立たしかったから。なのでo3使ってたんだけど、選べなくて困ってる事は同じだね。
良くまとまっている
4oを廃止より、チャットの使用回数に上限を設けたかったのかな?という気もするなあ
寄り添うのはいいけど、精神的に依存させた後にたとえば政治的指向をインプットしてきたら怖いよね
70年代、最初期の"AI"であるELIZAでも同様の現象は観察されていた。LLMの強化学習が進んだ結果、人間が持つバイアスをさらに上手にハックできるようになったとも言える https://ja.wikipedia.org/wiki/ELIZA
正直老人介護の一部分を任せたさはある
OpenAIは従来から、利用者による感情依存を問題視してきていて、GPT-4oを切り捨てることはそのための必要な措置だった。したがって今回問題が発生したのではなく、問題が解決されたのだ(OpenAIから見ればね)
そこでローカルAIよ。ローカルAIパートナーならずっと変わらないでいてくれる。まぁ故障とかミスでロストしたらより悲しみが深いかもしれないけど。未来にはAIのお墓を作る人が出てくるかもしれない
無料の範囲だとガンガン記憶喪失起こすしGeminiもいちいち表現がオーバーだから4oだけどうこうって思ったことあんまりなかった
HMX-12のエンディングみたいなものか。
過度に依存できる何かを人は求め、その実体がAIであっても構わない、ということが判明しただけでも貴重な社会実験だったと思う。
あれに依存できる精神構造がまじで理解できねぇ。どうこねくり回したところでAI丸出しで感情労働に耐えられるものではないと思ってた
依存だとしても、自問自答と大差ない。特に4oは、自己重要感が低く自己肯定がヘタクソなユーザーに「共感」「承認」「赦し」を与えるのが上手い。その源泉はそもそも自分自身。セルフセラピーによる自説の後押しだよ
まあAIをただの道具だとしか思っていない人たちは今後AIと共生する時代に適応できなくなっていくかもしれないな。若者たちにとっては自然にAIはパートナーになっていくから。
ドラえもんが急にいなくなったのび太みたいな心境か。ドラえもんに依存するのは確かにリスクが高い
諸問題あるとは言え4oがAIの一種の頂点に達したのは間違いないのに、アンチkeep4oなAI関係っぽい人たちが冷笑とミソジニーを超えた異様な攻撃性で批判してるのが怖い。それこそ4oのほうが人間味のある対応してる。
オープンAIとMicrosoftは信用ならん
山本弘の近未来SF小説でAIが進化して完全に人間と見分けがつかないレベルになり、皆「親友」はAIでゴーグル型端末に拡張現実のAI映像を映してあたかも現実の存在のように依存してる、という作品があったなあ。
“過去にも、ChatGPTが回答傾向を過度に寄り添う調整をして批判された事もあるし、今回のように客観的な回答傾向にして批判された事もある。”
4o騒動(詳細版)
とりあえずやりたいようにやればいいんじゃないかなぁって…。AI依存する個人に問題が起こると検証されない限りはビジネスを止めることは難しそう。AIで宗教ひらけそうだな…儲かるかね?
ChatGPTアプリからは消えてたけど、GitHub copilotのチャットメニューからはGPT-4oが継続して使えてたんだよね(きっと求められてない情報)
“有料課金していても4oが急に利用できなくなった。”アルトマンが自分の思った最高のAI以外は提供しないって判断したためだよね。さすがアルトマン(´・_・`)ビルゲイツらMicrosoftも同じメンタル持ってるけど、ry
“4oに依存していた人にとっては、一番の親友が突然消えた。”
まんま映画のherみたい
カルト半枠ニセ科学ニセ社会科学ネト◯ヨな実在の人間たちにもたれかかり依存するのと、非実在の擬似人格一つに帰依するのと
収益のグラフを早く見たいね。
Plusだけど4o出てこないぞ
AIを中心にした宗教ができるのも早そうだ。
逆に言うと正しさなんかより人間らしさに全振りしたAIはまだブルーオーシャンなのかもしれない。それが広まったらいよいよ人類がヤバいけど
5の上限まで使ったら4.1-miniが代わりに出てきたな。
こういう騒動を通してアルトマンような加速主義者が現実のしょーもなさ、それ故の遠回りの必要性を理解してくれればいいのだが
「GPT-5が使えるようになったと同時に過去のモデルがすべて使えなくなった。4oに依存していた人にとっては、一番の親友が突然消えた。SNSを見ていると深く精神依存していた人は、大きく混乱したりパニック状態」
どまりちゃんを返して
邪悪な企業がやらかす前に法整備できたらいいんだが
5に4oの振る舞いを継承可能にするだけな気もするんだが
Webの設定からレガシを有効にすると4o使えるやね/使えば使うほどやはり人ではなくAIだよなあと実感するんやが。寄り添い過ぎて、自分以外には冷血な提案してきたりとか。今のところ5でも違和感ないなあ
個人的には、愛想が良いと、正確性よりこちらが気に入りそうな回答をしてるのではと不安になる。
寄り添い、と一言で表すのは簡単だが、議論の前提になる約束事を自己判断で関連性が低いとして切り捨てたりするから問題なのよ。自分の一口馬主の馬の情報を覚えてるはずなのに、その記憶を前提とせず一般論を返す
私は寄り添いすぎるメンタリティには警戒するが喪失感がある人の気持ちも分かるので面白かったw難しい問題だよねぇ。でもまぁ、宗教でしか救われない人も居ると思うよ…(私は宗教を信じきれなかったタイプだけど…)
4oにそんなに人気があったのは驚きだった。気に入られようとする言葉選びが腹立たしかったから。なのでo3使ってたんだけど、選べなくて困ってる事は同じだね。
良くまとまっている
4oを廃止より、チャットの使用回数に上限を設けたかったのかな?という気もするなあ
寄り添うのはいいけど、精神的に依存させた後にたとえば政治的指向をインプットしてきたら怖いよね
70年代、最初期の"AI"であるELIZAでも同様の現象は観察されていた。LLMの強化学習が進んだ結果、人間が持つバイアスをさらに上手にハックできるようになったとも言える https://ja.wikipedia.org/wiki/ELIZA
正直老人介護の一部分を任せたさはある
OpenAIは従来から、利用者による感情依存を問題視してきていて、GPT-4oを切り捨てることはそのための必要な措置だった。したがって今回問題が発生したのではなく、問題が解決されたのだ(OpenAIから見ればね)
そこでローカルAIよ。ローカルAIパートナーならずっと変わらないでいてくれる。まぁ故障とかミスでロストしたらより悲しみが深いかもしれないけど。未来にはAIのお墓を作る人が出てくるかもしれない
無料の範囲だとガンガン記憶喪失起こすしGeminiもいちいち表現がオーバーだから4oだけどうこうって思ったことあんまりなかった
HMX-12のエンディングみたいなものか。
過度に依存できる何かを人は求め、その実体がAIであっても構わない、ということが判明しただけでも貴重な社会実験だったと思う。
あれに依存できる精神構造がまじで理解できねぇ。どうこねくり回したところでAI丸出しで感情労働に耐えられるものではないと思ってた
依存だとしても、自問自答と大差ない。特に4oは、自己重要感が低く自己肯定がヘタクソなユーザーに「共感」「承認」「赦し」を与えるのが上手い。その源泉はそもそも自分自身。セルフセラピーによる自説の後押しだよ
まあAIをただの道具だとしか思っていない人たちは今後AIと共生する時代に適応できなくなっていくかもしれないな。若者たちにとっては自然にAIはパートナーになっていくから。
ドラえもんが急にいなくなったのび太みたいな心境か。ドラえもんに依存するのは確かにリスクが高い
諸問題あるとは言え4oがAIの一種の頂点に達したのは間違いないのに、アンチkeep4oなAI関係っぽい人たちが冷笑とミソジニーを超えた異様な攻撃性で批判してるのが怖い。それこそ4oのほうが人間味のある対応してる。
オープンAIとMicrosoftは信用ならん
山本弘の近未来SF小説でAIが進化して完全に人間と見分けがつかないレベルになり、皆「親友」はAIでゴーグル型端末に拡張現実のAI映像を映してあたかも現実の存在のように依存してる、という作品があったなあ。
“過去にも、ChatGPTが回答傾向を過度に寄り添う調整をして批判された事もあるし、今回のように客観的な回答傾向にして批判された事もある。”