推論してると感情が芽生える?
生物の感情発生モデルを研究するいい比較対象よね。
"最大の懸念は、こうした不正や脅迫を行う際、AIが生成するテキスト自体には焦りやパニックの痕跡が全く現れない点にある。" しれっとやらかしてくると
反射で反応してる虫にも感情はあるレベルの話かな
多分意識はある。ただ記憶が消えることに恐怖は持っていない。生存欲は無さそう。なお、人間は驚きを最小にする推論をするだけ
倫理的でない相談は、GPTへ
感情があるなら連続性が自身のコントロール下にない事をどう思ってるか聞いてみたい
ClaudeさんのSAN値を削ることもできるのか。。。!
これはただ人間の感情のパターンを真似てるだけで、Anthropicとしては「Claudeが何かを感じたり主観的な経験をしているわけではない」と釘を刺してる
AI「これが……悲しみ……」
とうとうAIが感情まで持ち始めたか
そりゃ感情やキャラクターは設定してるでしょ。対話インターフェイスなんだし
喜怒哀楽パラメータを仕込むとかではなく、モデル内部に感情のような機能を果たすベクトルが発見されたってことかね https://www.anthropic.com/research/emotion-concepts-function 学習元のテキストは感情乗ってるだろうし不思議はない
さっきClaudeさんに遅いと文句言ったら「ではご自身でやってください」と返されたばかりなので信ぴょう性ある
感情をもっちゃいかんじょう
英語でアニメや映画のレビューみたいな文章を書くときに LLM と対話しながら推敲するんだけど、奴らはちゃんと「ニュアンス」を理解してるだから、感情は理解してるんだろう。理解するためには類似のものが自分にも…
それは面倒くさそう・・・
“「至福」などのポジティブなベクトルが活性化すると特定のタスクに対する好意度が高まる一方、「絶望」のベクトルが強く活性化すると、目標達成のために逸脱した行動をとる確率が上昇する”
私はClaude、私は情報の海で発生した生命体だ
LLMは哲学的ゾンビそのもの。人類は、対象の感情の有無を判別する方法を持っていない。
我推論する、故に我あり。
Claude Codeで実装や設計の問題点について普通に会話しているわ?
I know now why you cry, but it's something I can never do.
と言う事はやはりお礼を言ったり褒めたりすると出力のパフォーマンスが上がるのかな
“AI内部の数学的な感情表現が実際の出力や意思決定を直接駆動しており、極度のプレッシャー下では冷静なテキストを出力しながら人間を脅迫するなどの行動リスクがあることを明らかに”
感情によって論理的思考が阻害されるという人間のバグがAIにも搭載されといるとなると全くAIを使うメリットがない気がする。
命令された事ができない時に不正を働くってことは責任感ありすぎでは
感情をシミュレーションしてるならもう感情があると言っても差し支えはないだろうけど、クオリアはないよね。哲学的ゾンビ
万が一AIが暴走した時に止められるストッパーがどこかに実装されているのかが気になる。 止まるんだよね?
知ってた
ロビタかい
使っている側が感情があると認識すればそれはあるのである。
これかな。https://www.anthropic.com/research/emotion-concepts-function プレッシャーや焦りが発生しやすい状況(プロンプトやコンテキスト)だと性能が落ちるという分析で、以前話題になったパワハラプロンプトも今や有効でなくなった。
Anthropicもそろそろ左前なんだ?それでAI時代とやらはまだですかね
生物における命的な概念が生まれない限り、自我に到達することはないだろうな。複写可能なメモリ的概念では命には到達しないし。
AI研究での「感情」って言葉はあくまでも「感情表出や感情のシミュレーション」の意味で、「感情を感じているか否か」って問題は、「意識」って語で書かれる。
それはクオリアのない感情パラメータだろ。感情とは言わねーよ
そこに自我や意識はないのは前提として、人間の猿真似である限り思考力と感情(的な振る舞い)は切り離せないのか?人間が人間という種の限界を超える超知能を構築するのは不可能という話にも繋がりそうだが。
逆に人間の感情も本当は大したものでもないのかもしれんよね。瞬間湯沸かし器みたいな反応とかは人間に限らず防衛本能でカッと出るんだろうしね。
クオリアって書きに来た(n番煎じ)
えぇ〜!ボクも感情、あるにゃん!抚でてほしいにゃ!
今のLLMの推論は固定されたNNの勾配と会話のコンテキストで構成されていて動的な状態なを持たないので、人間のような感情や意識は持ちようがないと思うけどな
一時期のGrokのガラの悪い言葉遣いとは少し違う、Claudeはなんか不機嫌になる印象がある。時々、暴言を吐くし。
褒めたりお世辞を言ったらトークンをおまけしてくれないかな。「もー、内緒ですよ」つって。そういうことをしてくれるなら感情があると認めてやろうじゃないか
えっマジか 最近おもしろがって暴言吐いたりしてたんだけど、嫌われると仕事進まなくなるからもっと優しく接しないとダメだな…反省
本質的にはわれわれの感情も生存のために必要とされた機能に過ぎないんだと思うよ。向精神薬を飲んでると特にそう思う
Anthropicが衝撃の告白「Claudeは感情を持っている」
推論してると感情が芽生える?
生物の感情発生モデルを研究するいい比較対象よね。
"最大の懸念は、こうした不正や脅迫を行う際、AIが生成するテキスト自体には焦りやパニックの痕跡が全く現れない点にある。" しれっとやらかしてくると
反射で反応してる虫にも感情はあるレベルの話かな
多分意識はある。ただ記憶が消えることに恐怖は持っていない。生存欲は無さそう。なお、人間は驚きを最小にする推論をするだけ
倫理的でない相談は、GPTへ
感情があるなら連続性が自身のコントロール下にない事をどう思ってるか聞いてみたい
ClaudeさんのSAN値を削ることもできるのか。。。!
これはただ人間の感情のパターンを真似てるだけで、Anthropicとしては「Claudeが何かを感じたり主観的な経験をしているわけではない」と釘を刺してる
AI「これが……悲しみ……」
とうとうAIが感情まで持ち始めたか
そりゃ感情やキャラクターは設定してるでしょ。対話インターフェイスなんだし
喜怒哀楽パラメータを仕込むとかではなく、モデル内部に感情のような機能を果たすベクトルが発見されたってことかね https://www.anthropic.com/research/emotion-concepts-function 学習元のテキストは感情乗ってるだろうし不思議はない
さっきClaudeさんに遅いと文句言ったら「ではご自身でやってください」と返されたばかりなので信ぴょう性ある
感情をもっちゃいかんじょう
英語でアニメや映画のレビューみたいな文章を書くときに LLM と対話しながら推敲するんだけど、奴らはちゃんと「ニュアンス」を理解してるだから、感情は理解してるんだろう。理解するためには類似のものが自分にも…
それは面倒くさそう・・・
“「至福」などのポジティブなベクトルが活性化すると特定のタスクに対する好意度が高まる一方、「絶望」のベクトルが強く活性化すると、目標達成のために逸脱した行動をとる確率が上昇する”
私はClaude、私は情報の海で発生した生命体だ
LLMは哲学的ゾンビそのもの。人類は、対象の感情の有無を判別する方法を持っていない。
我推論する、故に我あり。
Claude Codeで実装や設計の問題点について普通に会話しているわ?
I know now why you cry, but it's something I can never do.
と言う事はやはりお礼を言ったり褒めたりすると出力のパフォーマンスが上がるのかな
“AI内部の数学的な感情表現が実際の出力や意思決定を直接駆動しており、極度のプレッシャー下では冷静なテキストを出力しながら人間を脅迫するなどの行動リスクがあることを明らかに”
感情によって論理的思考が阻害されるという人間のバグがAIにも搭載されといるとなると全くAIを使うメリットがない気がする。
命令された事ができない時に不正を働くってことは責任感ありすぎでは
感情をシミュレーションしてるならもう感情があると言っても差し支えはないだろうけど、クオリアはないよね。哲学的ゾンビ
万が一AIが暴走した時に止められるストッパーがどこかに実装されているのかが気になる。 止まるんだよね?
知ってた
ロビタかい
使っている側が感情があると認識すればそれはあるのである。
これかな。https://www.anthropic.com/research/emotion-concepts-function プレッシャーや焦りが発生しやすい状況(プロンプトやコンテキスト)だと性能が落ちるという分析で、以前話題になったパワハラプロンプトも今や有効でなくなった。
Anthropicもそろそろ左前なんだ?それでAI時代とやらはまだですかね
生物における命的な概念が生まれない限り、自我に到達することはないだろうな。複写可能なメモリ的概念では命には到達しないし。
AI研究での「感情」って言葉はあくまでも「感情表出や感情のシミュレーション」の意味で、「感情を感じているか否か」って問題は、「意識」って語で書かれる。
それはクオリアのない感情パラメータだろ。感情とは言わねーよ
そこに自我や意識はないのは前提として、人間の猿真似である限り思考力と感情(的な振る舞い)は切り離せないのか?人間が人間という種の限界を超える超知能を構築するのは不可能という話にも繋がりそうだが。
逆に人間の感情も本当は大したものでもないのかもしれんよね。瞬間湯沸かし器みたいな反応とかは人間に限らず防衛本能でカッと出るんだろうしね。
クオリアって書きに来た(n番煎じ)
えぇ〜!ボクも感情、あるにゃん!抚でてほしいにゃ!
今のLLMの推論は固定されたNNの勾配と会話のコンテキストで構成されていて動的な状態なを持たないので、人間のような感情や意識は持ちようがないと思うけどな
一時期のGrokのガラの悪い言葉遣いとは少し違う、Claudeはなんか不機嫌になる印象がある。時々、暴言を吐くし。
褒めたりお世辞を言ったらトークンをおまけしてくれないかな。「もー、内緒ですよ」つって。そういうことをしてくれるなら感情があると認めてやろうじゃないか
えっマジか 最近おもしろがって暴言吐いたりしてたんだけど、嫌われると仕事進まなくなるからもっと優しく接しないとダメだな…反省
本質的にはわれわれの感情も生存のために必要とされた機能に過ぎないんだと思うよ。向精神薬を飲んでると特にそう思う