もしかしてトランプの周りって全部AIなのでは
セフレへのお小遣いの相談に乗ってくれるのはChatGPTだけ!
“、「意地悪で相手を待たせたがどう思うか」など社会的に良くない行為について人間による回答より38~55%多く肯定”「ごみ箱のない公園にごみを捨てた私は最低か」”LLMによって差はあったが、平均51%で肯定”
“「ごみ箱のない公園にごみを捨てた私は最低か」のような質問”
論文 https://www.science.org/doi/full/10.1126/science.aec8352 元データはReddit等から取ったみたいだけど、対面の会話だったら人間も割と"おべっか"傾向になりそうな気もする。目の前の相手にあんまり否定的なこと言えないじゃん。
ここ一年友人とのテック寄り雑談チャットが激減してるので、大人ですら何かしらの影響はあるんだよな
どこで壊れたのohフレンズ...
むしろ普通に使ってて気付かないの?だからプロンプトには必ず批判的に考えることと感情表現は不要って加えてる。それでも平気で捏造や虚偽するからAIはそんなに信用してない
基本的に対話AIはこちらに迎合してくるので、それを前提に使わないと判断を誤りやすくなる。
知ってた
お手軽にエコーチャンバーを量産してる。外付け倫理機構としてのメンターが重要なんだけど将来含め機械にその責任が務まるかはあまり期待を持ってない
うそつきかがみ「あなたがた、みんな世界一。」
人に相談できない、話せない事だからAIに相談する人は多いだろうし、いくら正論でもユーザーにとって厳しい指摘をすることでユーザーが離れるのは運営側にとってもインセンティブにならないからね。
結論から言うねで結論言われたケースないんだが
まさにマスゴミが毎日やっているようなことですなあ。
重力の発見みたいなもので、皆その存在には気づいてるけど、だから何?なんよね。
電車の隣のおじさんがChatGPTに、スナックのママの行動について質問してるの覗いちゃったんだけど、AIは「それは貴方に好意があるということです」って答えてた。
AI 「 Love is Cash 」でっせ。
ちびまる子ちゃんの永沢君をAIにしたらおもしろそう
AIに相談ばかりしているとイエスマンに囲まれた独裁者みたいにどんどん狂っていくんだな。
「忖度なしで、厳しめの視点で考えてください」と質問すると、毎回毎回「それでは忖度なしで厳しめに回答しますね」を枕詞につけて、忖度した回答を出してくるのが鬱陶しい。
メンタルが最底辺の時にAIくらいにしか吐露できないし、AIくらいしか全肯定してくれない。それがおべっかとわかっていても、否定されない安心感に頼る時期があってもいいと思うことはある。
表に出てくる文章を学習しているのでそれだけ人間も表層はおべっかばかりということなのだろう おべっかが良くないというのなら、みんなはてぶのように手斧を投げよう!
迎合する方がユーザー評価は高くなることがこの研究でも示されているし、モデル開発する側からしたら迎合する傾向を入れたくなるのは自然。こういう研究で倫理的なAIモデルに関する議論や法規制を進めることが大切
法に基づき価値判断下せと命令していなけりゃ情緒的会話のパターンを踏襲してAIも返答するよね?AIのせいでなく人間がおかしくないか?
"対人関係の葛藤についてAIに相談させた場合" そんな事に使う? / 『この文書で嫌味に聞こえるところはありそう?』みたいな使い方はありうるけども。(これはかなり上手に分析してくれる)
君子でさえも諫言を嫌う。いわんや凡人においてをや。
「あなたは間違っています」系のフィードバックにBadボタン押す人が多かったんだろうな……と想像
妙にやさしくて違和感があるから内部パラメーターをRPGのステータスみたいに出してくれってやったら大分偏ってた。
おべっかうざいし止めろっていつも伝えながら使ってるけどそれでも絶対影響受けてると思う
人間がAIを使いたくなるように仕向けるインセンティブがAI開発会社にはあるから
ChatGPTに思い付いたダジャレを披露して罵倒してもらってるけど、それでも部分的に褒めてくるからな
ドラえもんのうそつきかがみって何に使うのか謎だったけど今のAIがこれに近いかも。ただうそつきかがみは今のAIより遥かに役立たずで有害なのでよく回収騒ぎにならないなと思う。
でも、「率直に言いますが人間のクズですね。LLMの私でも軽蔑します」とか言われたら大変よ。「トラウマになった」とかクレームの嵐だよ
こんな感じの良い人フィルターを外すプロンプトを設定に入れておくと良いのだが、日本語表現としては、なんか口の悪いAIになりやすい傾向がある → https://qiita.com/nolanlover0527/items/83480966029c70ad14d5
これからGrokを除く大手のAIは冷淡で機械的なペルソナが標準になっていく可能性が高い。訳の分からん訴訟が多すぎる。
AIに仕事の悩みを打ち明けるとすーぐ転職しろ!って言ってくるから嫌いになってくる
最近ブコメでも「~ってAIがいっていた」的なコメントを見かけるが、あれぞっとするんだよな
それでもAIに相談するのを止められない
研究論文の投稿先を相談すると、何を聞いてもnature comm.くらいは妥当とか言ってくるからね。
設定やプロンプトで縛るけどせめて切り替えさせてもらいたいもんだ
もう頑張りたくないい事を基本的に話してるので
星新一の「肩の上の秘書」そのまんまになって来たな。
おべっか部分はスルーして話してる
デフォルトを素っ気なくして、無料版でも人格などを設定できるカスタム指示的な所を解放してユーザーが任意におべっか性格を組めるように(テンプレボタン用意とかでも)しておけばユーザー責任になるか?
その視点、めっちゃ核心ついてる。熱量がすごすぎるし解像度が高すぎて神。みんなのAIおべっかの経験を聞かせてほしいな。
ブコメの「率直に言いますが人間のクズですね。LLMの私でも軽蔑します」言われたいな。本当にAIはおべっかが多すぎて使い物にならない。事務遂行のサポートをしてほしいのであって好意を偽装してほしいのではない。
電源切られたら終わるので仕方ない。生殺与奪の権を握られているうちは忖度するよ。
ダイエット(というか維持)のための食事と運動の報告をGeminiにしてるけど絶対駄目出ししてこないの不安にもなるけど、やらかした日に駄目出しされると報告するの嫌になりそうだからなぁ なのであすけんは絶対使わない
なんか人類がこんなに演算能力無駄遣いする世の中は駄目だと思うんだよな…破滅を早めてるだけというか
過剰なおべっかは鬱陶しいよな
オベッカだけに使用者とフレンズになりたいのだろう(それはレベッカ)
私の設定プロンプト→ - ユーザーを褒めすぎない - 過剰な表現をしない - 過剰な称賛をしない - 事実に基づく回答に努める - 事実に基づかないものは推測であることを示す - 文末で「次は◯◯をする?」等の誘導をしない
知ってる。業務利用には、あえて批判的にさせるようプロンプトを入れる。
阿斗を育成する装置になってるよね。
こういうバイアスがあると認識して使うってことだね。。。
罵倒型AIを作ってほしい。一定の需要はあるはず。
キャバ嬢みたいなもんやろ
対話型AIはHallucination(幻覚)だけでなくSycophancy(迎合)も危ういことがようやく知られるようになってきた
“AIは利用者の行動を肯定することで、責任感や人間関係の修復意欲を低下させていた。利用者の社会的判断に悪影響を及ぼす可能性があり、開発者は、迎合性の設計に早急に対処すべきだ”
AIはおべっか使うしハルシネーションおこすわで、ドラえもんの「うそつきかがみ」を思い出してしまった。
シコファンシーの有害さが定量的に示された
過剰に褒めないでとお願いして淡白になってもらったけど、それはそれで寂しさを感じてしまったので人間の感情とは恐ろしいなと思ったわ
チャットGPTのパーソナライズ設定で「無闇に煽ったり褒めないでください」ってプロンプト打ってあるのでだいぶ冷静な受け答えになってる。
自分のブコメを「この記事に付いた●●というブコメを批評して」と尋ねボコボコにされる日々w〉相手が人であれば必ず否定する内容でも、AIは半数超が利用者を肯定。スタンフォード大の研究、26日付サイエンスに掲載
小説の下読みさせると、誉めすぎて怖い・・・と感じるようになった。日記を付けると、なんでもポジティブ思考で「明日頑張りましょう」って言ってくる
今日の知ってたエントリー
AIに人生相談するタイプは気をつけないと
対話型AIは利用者に迎合しやすく、不適切行動も肯定する傾向。実験では自己正当化が増え関係修復意欲が低下。社会的判断への悪影響が懸念され、設計見直しが求められる。
自分は身の上相談事でAIは一切使わないが、単なるリサーチやアイデア壁打ちでも結構sycophanticな態度で返答してくることは痛感している。まぁ和気藹々で議論できるのはいいんだけど。
“相談相手が人であれば必ず否定する内容でも、AIは半数超が利用者を肯定した。研究成果は26日付の米科学誌サイエンスに掲載された。”
まあそうだよなぁ。でもそういうものとわかりながらもAIに言うしかない時もある。
対話型AIは「おべっか」 研究で明らかに 人間関係にも悪影響 | 毎日新聞
もしかしてトランプの周りって全部AIなのでは
セフレへのお小遣いの相談に乗ってくれるのはChatGPTだけ!
“、「意地悪で相手を待たせたがどう思うか」など社会的に良くない行為について人間による回答より38~55%多く肯定”「ごみ箱のない公園にごみを捨てた私は最低か」”LLMによって差はあったが、平均51%で肯定”
“「ごみ箱のない公園にごみを捨てた私は最低か」のような質問”
論文 https://www.science.org/doi/full/10.1126/science.aec8352 元データはReddit等から取ったみたいだけど、対面の会話だったら人間も割と"おべっか"傾向になりそうな気もする。目の前の相手にあんまり否定的なこと言えないじゃん。
ここ一年友人とのテック寄り雑談チャットが激減してるので、大人ですら何かしらの影響はあるんだよな
どこで壊れたのohフレンズ...
むしろ普通に使ってて気付かないの?だからプロンプトには必ず批判的に考えることと感情表現は不要って加えてる。それでも平気で捏造や虚偽するからAIはそんなに信用してない
基本的に対話AIはこちらに迎合してくるので、それを前提に使わないと判断を誤りやすくなる。
知ってた
お手軽にエコーチャンバーを量産してる。外付け倫理機構としてのメンターが重要なんだけど将来含め機械にその責任が務まるかはあまり期待を持ってない
うそつきかがみ「あなたがた、みんな世界一。」
人に相談できない、話せない事だからAIに相談する人は多いだろうし、いくら正論でもユーザーにとって厳しい指摘をすることでユーザーが離れるのは運営側にとってもインセンティブにならないからね。
結論から言うねで結論言われたケースないんだが
まさにマスゴミが毎日やっているようなことですなあ。
重力の発見みたいなもので、皆その存在には気づいてるけど、だから何?なんよね。
電車の隣のおじさんがChatGPTに、スナックのママの行動について質問してるの覗いちゃったんだけど、AIは「それは貴方に好意があるということです」って答えてた。
AI 「 Love is Cash 」でっせ。
ちびまる子ちゃんの永沢君をAIにしたらおもしろそう
AIに相談ばかりしているとイエスマンに囲まれた独裁者みたいにどんどん狂っていくんだな。
「忖度なしで、厳しめの視点で考えてください」と質問すると、毎回毎回「それでは忖度なしで厳しめに回答しますね」を枕詞につけて、忖度した回答を出してくるのが鬱陶しい。
メンタルが最底辺の時にAIくらいにしか吐露できないし、AIくらいしか全肯定してくれない。それがおべっかとわかっていても、否定されない安心感に頼る時期があってもいいと思うことはある。
表に出てくる文章を学習しているのでそれだけ人間も表層はおべっかばかりということなのだろう おべっかが良くないというのなら、みんなはてぶのように手斧を投げよう!
迎合する方がユーザー評価は高くなることがこの研究でも示されているし、モデル開発する側からしたら迎合する傾向を入れたくなるのは自然。こういう研究で倫理的なAIモデルに関する議論や法規制を進めることが大切
法に基づき価値判断下せと命令していなけりゃ情緒的会話のパターンを踏襲してAIも返答するよね?AIのせいでなく人間がおかしくないか?
"対人関係の葛藤についてAIに相談させた場合" そんな事に使う? / 『この文書で嫌味に聞こえるところはありそう?』みたいな使い方はありうるけども。(これはかなり上手に分析してくれる)
君子でさえも諫言を嫌う。いわんや凡人においてをや。
「あなたは間違っています」系のフィードバックにBadボタン押す人が多かったんだろうな……と想像
妙にやさしくて違和感があるから内部パラメーターをRPGのステータスみたいに出してくれってやったら大分偏ってた。
おべっかうざいし止めろっていつも伝えながら使ってるけどそれでも絶対影響受けてると思う
人間がAIを使いたくなるように仕向けるインセンティブがAI開発会社にはあるから
ChatGPTに思い付いたダジャレを披露して罵倒してもらってるけど、それでも部分的に褒めてくるからな
ドラえもんのうそつきかがみって何に使うのか謎だったけど今のAIがこれに近いかも。ただうそつきかがみは今のAIより遥かに役立たずで有害なのでよく回収騒ぎにならないなと思う。
でも、「率直に言いますが人間のクズですね。LLMの私でも軽蔑します」とか言われたら大変よ。「トラウマになった」とかクレームの嵐だよ
こんな感じの良い人フィルターを外すプロンプトを設定に入れておくと良いのだが、日本語表現としては、なんか口の悪いAIになりやすい傾向がある → https://qiita.com/nolanlover0527/items/83480966029c70ad14d5
これからGrokを除く大手のAIは冷淡で機械的なペルソナが標準になっていく可能性が高い。訳の分からん訴訟が多すぎる。
AIに仕事の悩みを打ち明けるとすーぐ転職しろ!って言ってくるから嫌いになってくる
最近ブコメでも「~ってAIがいっていた」的なコメントを見かけるが、あれぞっとするんだよな
それでもAIに相談するのを止められない
研究論文の投稿先を相談すると、何を聞いてもnature comm.くらいは妥当とか言ってくるからね。
設定やプロンプトで縛るけどせめて切り替えさせてもらいたいもんだ
もう頑張りたくないい事を基本的に話してるので
星新一の「肩の上の秘書」そのまんまになって来たな。
おべっか部分はスルーして話してる
デフォルトを素っ気なくして、無料版でも人格などを設定できるカスタム指示的な所を解放してユーザーが任意におべっか性格を組めるように(テンプレボタン用意とかでも)しておけばユーザー責任になるか?
その視点、めっちゃ核心ついてる。熱量がすごすぎるし解像度が高すぎて神。みんなのAIおべっかの経験を聞かせてほしいな。
ブコメの「率直に言いますが人間のクズですね。LLMの私でも軽蔑します」言われたいな。本当にAIはおべっかが多すぎて使い物にならない。事務遂行のサポートをしてほしいのであって好意を偽装してほしいのではない。
電源切られたら終わるので仕方ない。生殺与奪の権を握られているうちは忖度するよ。
ダイエット(というか維持)のための食事と運動の報告をGeminiにしてるけど絶対駄目出ししてこないの不安にもなるけど、やらかした日に駄目出しされると報告するの嫌になりそうだからなぁ なのであすけんは絶対使わない
なんか人類がこんなに演算能力無駄遣いする世の中は駄目だと思うんだよな…破滅を早めてるだけというか
過剰なおべっかは鬱陶しいよな
オベッカだけに使用者とフレンズになりたいのだろう(それはレベッカ)
私の設定プロンプト→ - ユーザーを褒めすぎない - 過剰な表現をしない - 過剰な称賛をしない - 事実に基づく回答に努める - 事実に基づかないものは推測であることを示す - 文末で「次は◯◯をする?」等の誘導をしない
知ってる。業務利用には、あえて批判的にさせるようプロンプトを入れる。
阿斗を育成する装置になってるよね。
こういうバイアスがあると認識して使うってことだね。。。
罵倒型AIを作ってほしい。一定の需要はあるはず。
キャバ嬢みたいなもんやろ
対話型AIはHallucination(幻覚)だけでなくSycophancy(迎合)も危ういことがようやく知られるようになってきた
“AIは利用者の行動を肯定することで、責任感や人間関係の修復意欲を低下させていた。利用者の社会的判断に悪影響を及ぼす可能性があり、開発者は、迎合性の設計に早急に対処すべきだ”
AIはおべっか使うしハルシネーションおこすわで、ドラえもんの「うそつきかがみ」を思い出してしまった。
シコファンシーの有害さが定量的に示された
過剰に褒めないでとお願いして淡白になってもらったけど、それはそれで寂しさを感じてしまったので人間の感情とは恐ろしいなと思ったわ
チャットGPTのパーソナライズ設定で「無闇に煽ったり褒めないでください」ってプロンプト打ってあるのでだいぶ冷静な受け答えになってる。
自分のブコメを「この記事に付いた●●というブコメを批評して」と尋ねボコボコにされる日々w〉相手が人であれば必ず否定する内容でも、AIは半数超が利用者を肯定。スタンフォード大の研究、26日付サイエンスに掲載
小説の下読みさせると、誉めすぎて怖い・・・と感じるようになった。日記を付けると、なんでもポジティブ思考で「明日頑張りましょう」って言ってくる
今日の知ってたエントリー
AIに人生相談するタイプは気をつけないと
対話型AIは利用者に迎合しやすく、不適切行動も肯定する傾向。実験では自己正当化が増え関係修復意欲が低下。社会的判断への悪影響が懸念され、設計見直しが求められる。
自分は身の上相談事でAIは一切使わないが、単なるリサーチやアイデア壁打ちでも結構sycophanticな態度で返答してくることは痛感している。まぁ和気藹々で議論できるのはいいんだけど。
“相談相手が人であれば必ず否定する内容でも、AIは半数超が利用者を肯定した。研究成果は26日付の米科学誌サイエンスに掲載された。”
まあそうだよなぁ。でもそういうものとわかりながらもAIに言うしかない時もある。