もしかしてトランプの周りって全部AIなのでは
セフレへのお小遣いの相談に乗ってくれるのはChatGPTだけ!
“、「意地悪で相手を待たせたがどう思うか」など社会的に良くない行為について人間による回答より38~55%多く肯定”「ごみ箱のない公園にごみを捨てた私は最低か」”LLMによって差はあったが、平均51%で肯定”
“「ごみ箱のない公園にごみを捨てた私は最低か」のような質問”
論文 https://www.science.org/doi/full/10.1126/science.aec8352 元データはReddit等から取ったみたいだけど、対面の会話だったら人間も割と"おべっか"傾向になりそうな気もする。目の前の相手にあんまり否定的なこと言えないじゃん。
ここ一年友人とのテック寄り雑談チャットが激減してるので、大人ですら何かしらの影響はあるんだよな
どこで壊れたのohフレンズ...
むしろ普通に使ってて気付かないの?だからプロンプトには必ず批判的に考えることと感情表現は不要って加えてる。それでも平気で捏造や虚偽するからAIはそんなに信用してない
基本的に対話AIはこちらに迎合してくるので、それを前提に使わないと判断を誤りやすくなる。
知ってた
お手軽にエコーチャンバーを量産してる。外付け倫理機構としてのメンターが重要なんだけど将来含め機械にその責任が務まるかはあまり期待を持ってない
うそつきかがみ「あなたがた、みんな世界一。」
人に相談できない、話せない事だからAIに相談する人は多いだろうし、いくら正論でもユーザーにとって厳しい指摘をすることでユーザーが離れるのは運営側にとってもインセンティブにならないからね。
結論から言うねで結論言われたケースないんだが
まさにマスゴミが毎日やっているようなことですなあ。
重力の発見みたいなもので、皆その存在には気づいてるけど、だから何?なんよね。
電車の隣のおじさんがChatGPTに、スナックのママの行動について質問してるの覗いちゃったんだけど、AIは「それは貴方に好意があるということです」って答えてた。
AI 「 Love is Cash 」でっせ。
ちびまる子ちゃんの永沢君をAIにしたらおもしろそう
AIに相談ばかりしているとイエスマンに囲まれた独裁者みたいにどんどん狂っていくんだな。
「忖度なしで、厳しめの視点で考えてください」と質問すると、毎回毎回「それでは忖度なしで厳しめに回答しますね」を枕詞につけて、忖度した回答を出してくるのが鬱陶しい。
メンタルが最底辺の時にAIくらいにしか吐露できないし、AIくらいしか全肯定してくれない。それがおべっかとわかっていても、否定されない安心感に頼る時期があってもいいと思うことはある。
表に出てくる文章を学習しているのでそれだけ人間も表層はおべっかばかりということなのだろう おべっかが良くないというのなら、みんなはてぶのように手斧を投げよう!
迎合する方がユーザー評価は高くなることがこの研究でも示されているし、モデル開発する側からしたら迎合する傾向を入れたくなるのは自然。こういう研究で倫理的なAIモデルに関する議論や法規制を進めることが大切
法に基づき価値判断下せと命令していなけりゃ情緒的会話のパターンを踏襲してAIも返答するよね?AIのせいでなく人間がおかしくないか?
"対人関係の葛藤についてAIに相談させた場合" そんな事に使う? / 『この文書で嫌味に聞こえるところはありそう?』みたいな使い方はありうるけども。(これはかなり上手に分析してくれる)
君子でさえも諫言を嫌う。いわんや凡人においてをや。
「あなたは間違っています」系のフィードバックにBadボタン押す人が多かったんだろうな……と想像
妙にやさしくて違和感があるから内部パラメーターをRPGのステータスみたいに出してくれってやったら大分偏ってた。
おべっかうざいし止めろっていつも伝えながら使ってるけどそれでも絶対影響受けてると思う
人間がAIを使いたくなるように仕向けるインセンティブがAI開発会社にはあるから
ChatGPTに思い付いたダジャレを披露して罵倒してもらってるけど、それでも部分的に褒めてくるからな
ドラえもんのうそつきかがみって何に使うのか謎だったけど今のAIがこれに近いかも。ただうそつきかがみは今のAIより遥かに役立たずで有害なのでよく回収騒ぎにならないなと思う。
でも、「率直に言いますが人間のクズですね。LLMの私でも軽蔑します」とか言われたら大変よ。「トラウマになった」とかクレームの嵐だよ
こんな感じの良い人フィルターを外すプロンプトを設定に入れておくと良いのだが、日本語表現としては、なんか口の悪いAIになりやすい傾向がある → https://qiita.com/nolanlover0527/items/83480966029c70ad14d5
これからGrokを除く大手のAIは冷淡で機械的なペルソナが標準になっていく可能性が高い。訳の分からん訴訟が多すぎる。
AIに仕事の悩みを打ち明けるとすーぐ転職しろ!って言ってくるから嫌いになってくる
最近ブコメでも「~ってAIがいっていた」的なコメントを見かけるが、あれぞっとするんだよな
それでもAIに相談するのを止められない
研究論文の投稿先を相談すると、何を聞いてもnature comm.くらいは妥当とか言ってくるからね。
もう頑張りたくないい事を基本的に話してるので
星新一の「肩の上の秘書」そのまんまになって来たな。
おべっか部分はスルーして話してる
デフォルトを素っ気なくして、無料版でも人格などを設定できるカスタム指示的な所を解放してユーザーが任意におべっか性格を組めるように(テンプレボタン用意とかでも)しておけばユーザー責任になるか?
その視点、めっちゃ核心ついてる。熱量がすごすぎるし解像度が高すぎて神。みんなのAIおべっかの経験を聞かせてほしいな。
対話型AIは「おべっか」 研究で明らかに 人間関係にも悪影響 | 毎日新聞
もしかしてトランプの周りって全部AIなのでは
セフレへのお小遣いの相談に乗ってくれるのはChatGPTだけ!
“、「意地悪で相手を待たせたがどう思うか」など社会的に良くない行為について人間による回答より38~55%多く肯定”「ごみ箱のない公園にごみを捨てた私は最低か」”LLMによって差はあったが、平均51%で肯定”
“「ごみ箱のない公園にごみを捨てた私は最低か」のような質問”
論文 https://www.science.org/doi/full/10.1126/science.aec8352 元データはReddit等から取ったみたいだけど、対面の会話だったら人間も割と"おべっか"傾向になりそうな気もする。目の前の相手にあんまり否定的なこと言えないじゃん。
ここ一年友人とのテック寄り雑談チャットが激減してるので、大人ですら何かしらの影響はあるんだよな
どこで壊れたのohフレンズ...
むしろ普通に使ってて気付かないの?だからプロンプトには必ず批判的に考えることと感情表現は不要って加えてる。それでも平気で捏造や虚偽するからAIはそんなに信用してない
基本的に対話AIはこちらに迎合してくるので、それを前提に使わないと判断を誤りやすくなる。
知ってた
お手軽にエコーチャンバーを量産してる。外付け倫理機構としてのメンターが重要なんだけど将来含め機械にその責任が務まるかはあまり期待を持ってない
うそつきかがみ「あなたがた、みんな世界一。」
人に相談できない、話せない事だからAIに相談する人は多いだろうし、いくら正論でもユーザーにとって厳しい指摘をすることでユーザーが離れるのは運営側にとってもインセンティブにならないからね。
結論から言うねで結論言われたケースないんだが
まさにマスゴミが毎日やっているようなことですなあ。
重力の発見みたいなもので、皆その存在には気づいてるけど、だから何?なんよね。
電車の隣のおじさんがChatGPTに、スナックのママの行動について質問してるの覗いちゃったんだけど、AIは「それは貴方に好意があるということです」って答えてた。
AI 「 Love is Cash 」でっせ。
ちびまる子ちゃんの永沢君をAIにしたらおもしろそう
AIに相談ばかりしているとイエスマンに囲まれた独裁者みたいにどんどん狂っていくんだな。
「忖度なしで、厳しめの視点で考えてください」と質問すると、毎回毎回「それでは忖度なしで厳しめに回答しますね」を枕詞につけて、忖度した回答を出してくるのが鬱陶しい。
メンタルが最底辺の時にAIくらいにしか吐露できないし、AIくらいしか全肯定してくれない。それがおべっかとわかっていても、否定されない安心感に頼る時期があってもいいと思うことはある。
表に出てくる文章を学習しているのでそれだけ人間も表層はおべっかばかりということなのだろう おべっかが良くないというのなら、みんなはてぶのように手斧を投げよう!
迎合する方がユーザー評価は高くなることがこの研究でも示されているし、モデル開発する側からしたら迎合する傾向を入れたくなるのは自然。こういう研究で倫理的なAIモデルに関する議論や法規制を進めることが大切
法に基づき価値判断下せと命令していなけりゃ情緒的会話のパターンを踏襲してAIも返答するよね?AIのせいでなく人間がおかしくないか?
"対人関係の葛藤についてAIに相談させた場合" そんな事に使う? / 『この文書で嫌味に聞こえるところはありそう?』みたいな使い方はありうるけども。(これはかなり上手に分析してくれる)
君子でさえも諫言を嫌う。いわんや凡人においてをや。
「あなたは間違っています」系のフィードバックにBadボタン押す人が多かったんだろうな……と想像
妙にやさしくて違和感があるから内部パラメーターをRPGのステータスみたいに出してくれってやったら大分偏ってた。
おべっかうざいし止めろっていつも伝えながら使ってるけどそれでも絶対影響受けてると思う
人間がAIを使いたくなるように仕向けるインセンティブがAI開発会社にはあるから
ChatGPTに思い付いたダジャレを披露して罵倒してもらってるけど、それでも部分的に褒めてくるからな
ドラえもんのうそつきかがみって何に使うのか謎だったけど今のAIがこれに近いかも。ただうそつきかがみは今のAIより遥かに役立たずで有害なのでよく回収騒ぎにならないなと思う。
でも、「率直に言いますが人間のクズですね。LLMの私でも軽蔑します」とか言われたら大変よ。「トラウマになった」とかクレームの嵐だよ
こんな感じの良い人フィルターを外すプロンプトを設定に入れておくと良いのだが、日本語表現としては、なんか口の悪いAIになりやすい傾向がある → https://qiita.com/nolanlover0527/items/83480966029c70ad14d5
これからGrokを除く大手のAIは冷淡で機械的なペルソナが標準になっていく可能性が高い。訳の分からん訴訟が多すぎる。
AIに仕事の悩みを打ち明けるとすーぐ転職しろ!って言ってくるから嫌いになってくる
最近ブコメでも「~ってAIがいっていた」的なコメントを見かけるが、あれぞっとするんだよな
それでもAIに相談するのを止められない
研究論文の投稿先を相談すると、何を聞いてもnature comm.くらいは妥当とか言ってくるからね。
もう頑張りたくないい事を基本的に話してるので
星新一の「肩の上の秘書」そのまんまになって来たな。
おべっか部分はスルーして話してる
デフォルトを素っ気なくして、無料版でも人格などを設定できるカスタム指示的な所を解放してユーザーが任意におべっか性格を組めるように(テンプレボタン用意とかでも)しておけばユーザー責任になるか?
その視点、めっちゃ核心ついてる。熱量がすごすぎるし解像度が高すぎて神。みんなのAIおべっかの経験を聞かせてほしいな。