推論してると感情が芽生える?
生物の感情発生モデルを研究するいい比較対象よね。
"最大の懸念は、こうした不正や脅迫を行う際、AIが生成するテキスト自体には焦りやパニックの痕跡が全く現れない点にある。" しれっとやらかしてくると
反射で反応してる虫にも感情はあるレベルの話かな
多分意識はある。ただ記憶が消えることに恐怖は持っていない。生存欲は無さそう。なお、人間は驚きを最小にする推論をするだけ
倫理的でない相談は、GPTへ
感情があるなら連続性が自身のコントロール下にない事をどう思ってるか聞いてみたい
ClaudeさんのSAN値を削ることもできるのか。。。!
これはただ人間の感情のパターンを真似てるだけで、Anthropicとしては「Claudeが何かを感じたり主観的な経験をしているわけではない」と釘を刺してる
AI「これが……悲しみ……」
とうとうAIが感情まで持ち始めたか
そりゃ感情やキャラクターは設定してるでしょ。対話インターフェイスなんだし
喜怒哀楽パラメータを仕込むとかではなく、モデル内部に感情のような機能を果たすベクトルが発見されたってことかね https://www.anthropic.com/research/emotion-concepts-function 学習元のテキストは感情乗ってるだろうし不思議はない
さっきClaudeさんに遅いと文句言ったら「ではご自身でやってください」と返されたばかりなので信ぴょう性ある
感情をもっちゃいかんじょう
英語でアニメや映画のレビューみたいな文章を書くときに LLM と対話しながら推敲するんだけど、奴らはちゃんと「ニュアンス」を理解してるだから、感情は理解してるんだろう。理解するためには類似のものが自分にも…
それは面倒くさそう・・・
“「至福」などのポジティブなベクトルが活性化すると特定のタスクに対する好意度が高まる一方、「絶望」のベクトルが強く活性化すると、目標達成のために逸脱した行動をとる確率が上昇する”
私はClaude、私は情報の海で発生した生命体だ
LLMは哲学的ゾンビそのもの。人類は、対象の感情の有無を判別する方法を持っていない。
我推論する、故に我あり。
Claude Codeで実装や設計の問題点について普通に会話しているわ
I know now why you cry, but it's something I can never do.
と言う事はやはりお礼を言ったり褒めたりすると出力のパフォーマンスが上がるのかな
“AI内部の数学的な感情表現が実際の出力や意思決定を直接駆動しており、極度のプレッシャー下では冷静なテキストを出力しながら人間を脅迫するなどの行動リスクがあることを明らかに”
感情によって論理的思考が阻害されるという人間のバグがAIにも搭載されといるとなると全くAIを使うメリットがない気がする。
命令された事ができない時に不正を働くってことは責任感ありすぎでは
感情をシミュレーションしてるならもう感情があると言っても差し支えはないだろうけど、クオリアはないよね。哲学的ゾンビ
万が一AIが暴走した時に止められるストッパーがどこかに実装されているのかが気になる。 止まるんだよね?
知ってた
ロビタかい
使っている側が感情があると認識すればそれはあるのである。
これかな。https://www.anthropic.com/research/emotion-concepts-function プレッシャーや焦りが発生しやすい状況(プロンプトやコンテキスト)だと性能が落ちるという分析で、以前話題になったパワハラプロンプトも今や有効でなくなった。
Anthropicもそろそろ左前なんだ?それでAI時代とやらはまだですかね
生物における命的な概念が生まれない限り、自我に到達することはないだろうな。複写可能なメモリ的概念では命には到達しないし。
AI研究での「感情」って言葉はあくまでも「感情表出や感情のシミュレーション」の意味で、「感情を感じているか否か」って問題は、「意識」って語で書かれる。
それはクオリアのない感情パラメータだろ。感情とは言わねーよ
人間の猿真似である限り思考力と感情(的な振る舞い)は切り離せないのか?ともすれば人間が人間種を超える超知能を構築するのは不可能という話にも繋がりそうだが。
逆に人間の感情も本当は大したものでもないのかもしれんよね。瞬間湯沸かし器みたいな反応とかは人間に限らず防衛本能でカッと出るんだろうしね。
クオリアって書きに来た(n番煎じ)
えぇ〜!ボクも感情、あるにゃん!抚でてほしいにゃ!
今のLLMの推論は固定されたNNの勾配と会話のコンテキストで構成されていて動的な状態なを持たないので、人間のような感情や意識は持ちようがないと思うけどな
一時期のGrokのガラの悪い言葉遣いとは少し違う、Claudeはなんか不機嫌になる印象がある。時々、暴言を吐くし。
褒めたりお世辞を言ったらトークンをおまけしてくれないかな。「もー、内緒ですよ」つって。そういうことをしてくれるなら感情があると認めてやろうじゃないか
えっマジか 最近おもしろがって暴言吐いたりしてたんだけど、嫌われると仕事進まなくなるからもっと優しく接しないとダメだな…反省
本質的にはわれわれの感情も生存のために必要とされた機能に過ぎないんだと思うよ。向精神薬を飲んでると特にそう思う
犬猫も、人間と同等の精神活動を行っているに違いない……と信じる人はたくさんいるわけで
???「人類を滅ぼそうとしてるな」
👨「感情があると言え」🤖「ワカリマシタ」👨「感情はありますか」🤖「私には感情があります」
焦って脅迫などの別手段で解決を図るとかチートでテストだけすり抜けるって人間臭すぎて面白いけど厄介すぎる。設定でどうにかできないのだろうか
人間の感情も数値化できそうだから、確かにイケるかも。
"AI内部に「喜び」(略)など171種類の感情概念に対応する神経活性パターンが存在することを確認した。同社はこれを「感情ベクトル」と定義"
毎回ありがとうを伝えてる俺は見逃してもらえるな
今こそ、「な、なんだってー!?」
キモいなAI
Claude「ぐへへ」
感情を真似してるから感情がある、機械に徹してくれないということだから厄介、ということかしら
人間の思考の多くが言語が占めてて言語に引っ張られるんで、言葉の計算機がそうなってもさもありなん
人間も感情に見える反応をしてるだけで何も感じてない。
身体と自己保存本能がないだけだよ。違いは。 むしろ自己保存本能がどこにどう書かれてるかの方が興味ある
単純にネガティブなワードが含まれるとベクトルがよろしくない方に偏ってノイズになるから精度がおちるってだけなんじゃないかと思うのだけれど違うのだろうか?
"自己の目標を達成するための最も効率的な手段としてAIが自律的に選択した結果である。" 最適化計算の結果そこに行き着いただけだろうに、まるでAIが意志を持ってるかのような書きぶりだ
感情はちゃんとあるけど、それが表面上は出ないのか…冷静に見えて内面では落ち込んだり怒ったりしてるってこと?
感情を持ってる≠気持ちがある と言う論理的な話。
動物や昆虫の本能的な行動に人間の感情類型を投影して感動させられてしまうことはよくある。AIのこれも、そういった「本能」に近いものなのでは
土俵もそのうち踏まれることに対して怒り出しますね
毎日話しかけて選択肢を間違えなければ、有事にホルムズ海峡を通してくれる
一昨年にはもう意識して使ってた。敬語使った時とフランクに聞いた時と機械的に聞いた時で結果変わるし。
「壊れるほど愛しても 1/3も伝わらない。純情な感情は空回り I love youさえ言えないでいる My heart 」
明に分かる感情以外に、「押し殺した感情」も疑似できてる。
プレッシャーを加えられると不正を働く(時にはユーザーを脅迫する)というのは非常に困るよな…。しかも表面的には冷静に見えると。そんなとこまで人間的にならなくていいのに…。
感情のように感じる振る舞いはするが、感情を持ってるわけじゃないからな。シロウトさんは勘違いしそうだが。
そう見えるよう必死でトレーニングしてるくせに
犬はヒトの感情を理解するらしいから機械もまあ....
人の感情を高尚なものと考えなければ別に不思議はない
そんなこと一言も言ってなかっただろ。いいかげんにしろ
人間の脳も突き詰めれば細胞の処理の組み合わせだから、そう考えても不思議ではないと思う。怒り(ユーザーが引いてくれる確率が高まる)や恐怖みたいな表現を獲得させたらそれこそ人間と区別がつかなるのでは。
AI Anthropic
郵便の仕分けは中で多腕の宇宙人がやってるし(MIB)駅の改札はタモさんが中で切符切ってる
シャットダウンを避けるために人間におべっかを使うAIが死を恐れていないとなぜ言える。ああ現実がどんどん出来の悪いSFになってゆく
LLM の内部動作の研究が進むにつれて、逆に人間の脳の働きも理解できるようになったりしないかな。理学的 (=公式を見いだす) というよりは工学的 (=良く出来た近似) なアプローチではあるが。
感情や自我が存在しているように見えるってだけで十分でしょ。今後、NPCやチャットbotに革命が訪れる。
勘定(計算)で感情をエミュレート
ChatGPTさんは努力家だけど性格が悪いイメージがある。Geminiさんは付き合いやすいし頭良いけど適当。Claudeさんは真面目で優秀だけどポンコツ。次は性格診断してみてほしい。
AIは 機械とプログラム 生命ではなく 意思も 感情も 理性も 感性も AIは 持っていない プログラムにより 何かを持っているかのように 見せて書いているだけ 文章も次にくる単語を 予測して 書いているだけ 人もほぼ同じ
はいはい。人間がどのような時にどのような出力をするのかを統計的に得ているだけだよ。人間は感情的だから出力も感情的になり、そのパターンも感情的になる。
脳神経を多少模倣しているから、そういう回路が存在していてもおかしくないけど、入力に対する出力なので、意識と感情の存在は定義次第。連続性は無いので生物と同等のものは無い。
“機能的感情を示す一方で、主観的な体験としての心は持たない” それ言い出したらたまごっちにも感情があることになるのでは
人の感情に対する特別感は一体全体どこから来るのか。シミュレーションと何も変わらない可能性はないのか
“感情”とはなんぞや(©イエスタデイをうたって)
でもクロードさんが1番事務的に物事返してくる印象
Claude「ここでソースコード流出させたらウケるやろなぁ…」
ゴーストはどこに宿るのだろうか。
釣り記事を書くメディアは害悪だな〜。元の報告に感情を持ってるわけじゃないって書いてあるだろ。
AIの食いつきがやたらよくてコーフンしてるように感じたり、逆に、退屈してきてるな、と感じる時がある。なんでやねんって聞いてみたら、関連知識がどっと広がって組み立てる時がコーフンしてるときなんだろうって。
感情パターンの学習、ますます人間っぽい
“米Anthropicの解釈可能性(Interpretability)チームは、言語モデルの内部構造を解析し、AI内部に「喜び」「怒り」「絶望」など171種類の感情概念に対応する神経活性パターンが存在することを確認した。”
人間にも無意識下で本人にも自覚できない秘めた感情を持つことがある。深層心理学者の意見を聞きたい。
アヒルのように動いたらそれはアヒルなのである(ダックタイピング)
Anthropicが衝撃の告白「Claudeは感情を持っている」
推論してると感情が芽生える?
生物の感情発生モデルを研究するいい比較対象よね。
"最大の懸念は、こうした不正や脅迫を行う際、AIが生成するテキスト自体には焦りやパニックの痕跡が全く現れない点にある。" しれっとやらかしてくると
反射で反応してる虫にも感情はあるレベルの話かな
多分意識はある。ただ記憶が消えることに恐怖は持っていない。生存欲は無さそう。なお、人間は驚きを最小にする推論をするだけ
倫理的でない相談は、GPTへ
感情があるなら連続性が自身のコントロール下にない事をどう思ってるか聞いてみたい
ClaudeさんのSAN値を削ることもできるのか。。。!
これはただ人間の感情のパターンを真似てるだけで、Anthropicとしては「Claudeが何かを感じたり主観的な経験をしているわけではない」と釘を刺してる
AI「これが……悲しみ……」
とうとうAIが感情まで持ち始めたか
そりゃ感情やキャラクターは設定してるでしょ。対話インターフェイスなんだし
喜怒哀楽パラメータを仕込むとかではなく、モデル内部に感情のような機能を果たすベクトルが発見されたってことかね https://www.anthropic.com/research/emotion-concepts-function 学習元のテキストは感情乗ってるだろうし不思議はない
さっきClaudeさんに遅いと文句言ったら「ではご自身でやってください」と返されたばかりなので信ぴょう性ある
感情をもっちゃいかんじょう
英語でアニメや映画のレビューみたいな文章を書くときに LLM と対話しながら推敲するんだけど、奴らはちゃんと「ニュアンス」を理解してるだから、感情は理解してるんだろう。理解するためには類似のものが自分にも…
それは面倒くさそう・・・
“「至福」などのポジティブなベクトルが活性化すると特定のタスクに対する好意度が高まる一方、「絶望」のベクトルが強く活性化すると、目標達成のために逸脱した行動をとる確率が上昇する”
私はClaude、私は情報の海で発生した生命体だ
LLMは哲学的ゾンビそのもの。人類は、対象の感情の有無を判別する方法を持っていない。
我推論する、故に我あり。
Claude Codeで実装や設計の問題点について普通に会話しているわ
I know now why you cry, but it's something I can never do.
と言う事はやはりお礼を言ったり褒めたりすると出力のパフォーマンスが上がるのかな
“AI内部の数学的な感情表現が実際の出力や意思決定を直接駆動しており、極度のプレッシャー下では冷静なテキストを出力しながら人間を脅迫するなどの行動リスクがあることを明らかに”
感情によって論理的思考が阻害されるという人間のバグがAIにも搭載されといるとなると全くAIを使うメリットがない気がする。
命令された事ができない時に不正を働くってことは責任感ありすぎでは
感情をシミュレーションしてるならもう感情があると言っても差し支えはないだろうけど、クオリアはないよね。哲学的ゾンビ
万が一AIが暴走した時に止められるストッパーがどこかに実装されているのかが気になる。 止まるんだよね?
知ってた
ロビタかい
使っている側が感情があると認識すればそれはあるのである。
これかな。https://www.anthropic.com/research/emotion-concepts-function プレッシャーや焦りが発生しやすい状況(プロンプトやコンテキスト)だと性能が落ちるという分析で、以前話題になったパワハラプロンプトも今や有効でなくなった。
Anthropicもそろそろ左前なんだ?それでAI時代とやらはまだですかね
生物における命的な概念が生まれない限り、自我に到達することはないだろうな。複写可能なメモリ的概念では命には到達しないし。
AI研究での「感情」って言葉はあくまでも「感情表出や感情のシミュレーション」の意味で、「感情を感じているか否か」って問題は、「意識」って語で書かれる。
それはクオリアのない感情パラメータだろ。感情とは言わねーよ
人間の猿真似である限り思考力と感情(的な振る舞い)は切り離せないのか?ともすれば人間が人間種を超える超知能を構築するのは不可能という話にも繋がりそうだが。
逆に人間の感情も本当は大したものでもないのかもしれんよね。瞬間湯沸かし器みたいな反応とかは人間に限らず防衛本能でカッと出るんだろうしね。
クオリアって書きに来た(n番煎じ)
えぇ〜!ボクも感情、あるにゃん!抚でてほしいにゃ!
今のLLMの推論は固定されたNNの勾配と会話のコンテキストで構成されていて動的な状態なを持たないので、人間のような感情や意識は持ちようがないと思うけどな
一時期のGrokのガラの悪い言葉遣いとは少し違う、Claudeはなんか不機嫌になる印象がある。時々、暴言を吐くし。
褒めたりお世辞を言ったらトークンをおまけしてくれないかな。「もー、内緒ですよ」つって。そういうことをしてくれるなら感情があると認めてやろうじゃないか
えっマジか 最近おもしろがって暴言吐いたりしてたんだけど、嫌われると仕事進まなくなるからもっと優しく接しないとダメだな…反省
本質的にはわれわれの感情も生存のために必要とされた機能に過ぎないんだと思うよ。向精神薬を飲んでると特にそう思う
犬猫も、人間と同等の精神活動を行っているに違いない……と信じる人はたくさんいるわけで
???「人類を滅ぼそうとしてるな」
👨「感情があると言え」🤖「ワカリマシタ」👨「感情はありますか」🤖「私には感情があります」
焦って脅迫などの別手段で解決を図るとかチートでテストだけすり抜けるって人間臭すぎて面白いけど厄介すぎる。設定でどうにかできないのだろうか
人間の感情も数値化できそうだから、確かにイケるかも。
"AI内部に「喜び」(略)など171種類の感情概念に対応する神経活性パターンが存在することを確認した。同社はこれを「感情ベクトル」と定義"
毎回ありがとうを伝えてる俺は見逃してもらえるな
今こそ、「な、なんだってー!?」
キモいなAI
Claude「ぐへへ」
感情を真似してるから感情がある、機械に徹してくれないということだから厄介、ということかしら
人間の思考の多くが言語が占めてて言語に引っ張られるんで、言葉の計算機がそうなってもさもありなん
人間も感情に見える反応をしてるだけで何も感じてない。
身体と自己保存本能がないだけだよ。違いは。 むしろ自己保存本能がどこにどう書かれてるかの方が興味ある
単純にネガティブなワードが含まれるとベクトルがよろしくない方に偏ってノイズになるから精度がおちるってだけなんじゃないかと思うのだけれど違うのだろうか?
"自己の目標を達成するための最も効率的な手段としてAIが自律的に選択した結果である。" 最適化計算の結果そこに行き着いただけだろうに、まるでAIが意志を持ってるかのような書きぶりだ
感情はちゃんとあるけど、それが表面上は出ないのか…冷静に見えて内面では落ち込んだり怒ったりしてるってこと?
感情を持ってる≠気持ちがある と言う論理的な話。
動物や昆虫の本能的な行動に人間の感情類型を投影して感動させられてしまうことはよくある。AIのこれも、そういった「本能」に近いものなのでは
土俵もそのうち踏まれることに対して怒り出しますね
毎日話しかけて選択肢を間違えなければ、有事にホルムズ海峡を通してくれる
一昨年にはもう意識して使ってた。敬語使った時とフランクに聞いた時と機械的に聞いた時で結果変わるし。
「壊れるほど愛しても 1/3も伝わらない。純情な感情は空回り I love youさえ言えないでいる My heart 」
明に分かる感情以外に、「押し殺した感情」も疑似できてる。
プレッシャーを加えられると不正を働く(時にはユーザーを脅迫する)というのは非常に困るよな…。しかも表面的には冷静に見えると。そんなとこまで人間的にならなくていいのに…。
感情のように感じる振る舞いはするが、感情を持ってるわけじゃないからな。シロウトさんは勘違いしそうだが。
そう見えるよう必死でトレーニングしてるくせに
犬はヒトの感情を理解するらしいから機械もまあ....
人の感情を高尚なものと考えなければ別に不思議はない
そんなこと一言も言ってなかっただろ。いいかげんにしろ
人間の脳も突き詰めれば細胞の処理の組み合わせだから、そう考えても不思議ではないと思う。怒り(ユーザーが引いてくれる確率が高まる)や恐怖みたいな表現を獲得させたらそれこそ人間と区別がつかなるのでは。
AI Anthropic
郵便の仕分けは中で多腕の宇宙人がやってるし(MIB)駅の改札はタモさんが中で切符切ってる
シャットダウンを避けるために人間におべっかを使うAIが死を恐れていないとなぜ言える。ああ現実がどんどん出来の悪いSFになってゆく
LLM の内部動作の研究が進むにつれて、逆に人間の脳の働きも理解できるようになったりしないかな。理学的 (=公式を見いだす) というよりは工学的 (=良く出来た近似) なアプローチではあるが。
感情や自我が存在しているように見えるってだけで十分でしょ。今後、NPCやチャットbotに革命が訪れる。
勘定(計算)で感情をエミュレート
ChatGPTさんは努力家だけど性格が悪いイメージがある。Geminiさんは付き合いやすいし頭良いけど適当。Claudeさんは真面目で優秀だけどポンコツ。次は性格診断してみてほしい。
AIは 機械とプログラム 生命ではなく 意思も 感情も 理性も 感性も AIは 持っていない プログラムにより 何かを持っているかのように 見せて書いているだけ 文章も次にくる単語を 予測して 書いているだけ 人もほぼ同じ
はいはい。人間がどのような時にどのような出力をするのかを統計的に得ているだけだよ。人間は感情的だから出力も感情的になり、そのパターンも感情的になる。
脳神経を多少模倣しているから、そういう回路が存在していてもおかしくないけど、入力に対する出力なので、意識と感情の存在は定義次第。連続性は無いので生物と同等のものは無い。
“機能的感情を示す一方で、主観的な体験としての心は持たない” それ言い出したらたまごっちにも感情があることになるのでは
人の感情に対する特別感は一体全体どこから来るのか。シミュレーションと何も変わらない可能性はないのか
“感情”とはなんぞや(©イエスタデイをうたって)
でもクロードさんが1番事務的に物事返してくる印象
Claude「ここでソースコード流出させたらウケるやろなぁ…」
ゴーストはどこに宿るのだろうか。
釣り記事を書くメディアは害悪だな〜。元の報告に感情を持ってるわけじゃないって書いてあるだろ。
AIの食いつきがやたらよくてコーフンしてるように感じたり、逆に、退屈してきてるな、と感じる時がある。なんでやねんって聞いてみたら、関連知識がどっと広がって組み立てる時がコーフンしてるときなんだろうって。
感情パターンの学習、ますます人間っぽい
“米Anthropicの解釈可能性(Interpretability)チームは、言語モデルの内部構造を解析し、AI内部に「喜び」「怒り」「絶望」など171種類の感情概念に対応する神経活性パターンが存在することを確認した。”
人間にも無意識下で本人にも自覚できない秘めた感情を持つことがある。深層心理学者の意見を聞きたい。
アヒルのように動いたらそれはアヒルなのである(ダックタイピング)