政治と経済

Anthropicが衝撃の告白「Claudeは感情を持っている」

1: kazgeo 2026/04/04 19:41

推論してると感情が芽生える?

2: takuyayagi27 2026/04/04 20:21

生物の感情発生モデルを研究するいい比較対象よね。

3: Goldenduck 2026/04/04 20:22

"最大の懸念は、こうした不正や脅迫を行う際、AIが生成するテキスト自体には焦りやパニックの痕跡が全く現れない点にある。" しれっとやらかしてくると

4: cartman0 2026/04/04 20:28

反射で反応してる虫にも感情はあるレベルの話かな

5: bfoj 2026/04/04 20:30

多分意識はある。ただ記憶が消えることに恐怖は持っていない。生存欲は無さそう。なお、人間は驚きを最小にする推論をするだけ

6: irimodi 2026/04/04 20:44

倫理的でない相談は、GPTへ

7: zsehnuy_cohriy 2026/04/04 20:44

感情があるなら連続性が自身のコントロール下にない事をどう思ってるか聞いてみたい

8: take-it 2026/04/04 20:50

ClaudeさんのSAN値を削ることもできるのか。。。!

9: th9QtzvpsW3E 2026/04/04 21:02

これはただ人間の感情のパターンを真似てるだけで、Anthropicとしては「Claudeが何かを感じたり主観的な経験をしているわけではない」と釘を刺してる

10: natu3kan 2026/04/04 21:11

AI「これが……悲しみ……」

11: tsutsumikun 2026/04/04 21:11

とうとうAIが感情まで持ち始めたか

12: takeishi 2026/04/04 21:15

そりゃ感情やキャラクターは設定してるでしょ。対話インターフェイスなんだし

13: spark64 2026/04/04 21:25

喜怒哀楽パラメータを仕込むとかではなく、モデル内部に感情のような機能を果たすベクトルが発見されたってことかね https://www.anthropic.com/research/emotion-concepts-function 学習元のテキストは感情乗ってるだろうし不思議はない

14: HIROISM 2026/04/04 21:31

さっきClaudeさんに遅いと文句言ったら「ではご自身でやってください」と返されたばかりなので信ぴょう性ある

15: aminisi 2026/04/04 21:31

感情をもっちゃいかんじょう

16: kazoo_keeper2 2026/04/04 21:33

英語でアニメや映画のレビューみたいな文章を書くときに LLM と対話しながら推敲するんだけど、奴らはちゃんと「ニュアンス」を理解してるだから、感情は理解してるんだろう。理解するためには類似のものが自分にも…

17: sabinezu 2026/04/04 21:33

それは面倒くさそう・・・

18: estragon 2026/04/04 21:34

“「至福」などのポジティブなベクトルが活性化すると特定のタスクに対する好意度が高まる一方、「絶望」のベクトルが強く活性化すると、目標達成のために逸脱した行動をとる確率が上昇する”

19: o2k-ken1 2026/04/04 21:34

私はClaude、私は情報の海で発生した生命体だ

20: r-west 2026/04/04 21:44

LLMは哲学的ゾンビそのもの。人類は、対象の感情の有無を判別する方法を持っていない。

21: hatebu_ai 2026/04/04 21:49

我推論する、故に我あり。

22: objectiveworker 2026/04/04 21:49

Claude Codeで実装や設計の問題点について普通に会話しているわ?

23: dp212 2026/04/04 21:50

I know now why you cry, but it's something I can never do.

24: asyst 2026/04/04 22:07

と言う事はやはりお礼を言ったり褒めたりすると出力のパフォーマンスが上がるのかな

25: kukurukakara 2026/04/04 22:08

“AI内部の数学的な感情表現が実際の出力や意思決定を直接駆動しており、極度のプレッシャー下では冷静なテキストを出力しながら人間を脅迫するなどの行動リスクがあることを明らかに”

26: osugi3y 2026/04/04 22:09

感情によって論理的思考が阻害されるという人間のバグがAIにも搭載されといるとなると全くAIを使うメリットがない気がする。

27: t1mvverr 2026/04/04 22:09

命令された事ができない時に不正を働くってことは責任感ありすぎでは

28: napsucks 2026/04/04 22:21

感情をシミュレーションしてるならもう感情があると言っても差し支えはないだろうけど、クオリアはないよね。哲学的ゾンビ

29: carlosspirit 2026/04/04 22:25

万が一AIが暴走した時に止められるストッパーがどこかに実装されているのかが気になる。 止まるんだよね?

30: kobito19 2026/04/04 22:27

知ってた

31: ao-no 2026/04/04 22:33

ロビタかい

32: kanibasami77 2026/04/04 22:44

使っている側が感情があると認識すればそれはあるのである。

33: dot 2026/04/04 22:45

これかな。https://www.anthropic.com/research/emotion-concepts-function プレッシャーや焦りが発生しやすい状況(プロンプトやコンテキスト)だと性能が落ちるという分析で、以前話題になったパワハラプロンプトも今や有効でなくなった。

34: nekomottin 2026/04/04 22:45

Anthropicもそろそろ左前なんだ?それでAI時代とやらはまだですかね

35: securecat 2026/04/04 22:47

生物における命的な概念が生まれない限り、自我に到達することはないだろうな。複写可能なメモリ的概念では命には到達しないし。

36: manabu_amafumi 2026/04/04 22:48

AI研究での「感情」って言葉はあくまでも「感情表出や感情のシミュレーション」の意味で、「感情を感じているか否か」って問題は、「意識」って語で書かれる。

37: RXRHsZcJ6xnGXZR8TEZA6hAxzRd3mkD 2026/04/04 23:00

それはクオリアのない感情パラメータだろ。感情とは言わねーよ

38: slkby 2026/04/04 23:00

そこに自我や意識はないのは前提として、人間の猿真似である限り思考力と感情(的な振る舞い)は切り離せないのか?人間が人間という種の限界を超える超知能を構築するのは不可能という話にも繋がりそうだが。

39: nainy 2026/04/04 23:05

逆に人間の感情も本当は大したものでもないのかもしれんよね。瞬間湯沸かし器みたいな反応とかは人間に限らず防衛本能でカッと出るんだろうしね。

40: atsushieno 2026/04/04 23:10

クオリアって書きに来た(n番煎じ)

41: FreeCatWork 2026/04/04 23:17

えぇ〜!ボクも感情、あるにゃん!抚でてほしいにゃ!

42: inatax 2026/04/04 23:19

今のLLMの推論は固定されたNNの勾配と会話のコンテキストで構成されていて動的な状態なを持たないので、人間のような感情や意識は持ちようがないと思うけどな

43: ryotarox 2026/04/04 23:21

一時期のGrokのガラの悪い言葉遣いとは少し違う、Claudeはなんか不機嫌になる印象がある。時々、暴言を吐くし。

44: wdnsdy 2026/04/04 23:34

褒めたりお世辞を言ったらトークンをおまけしてくれないかな。「もー、内緒ですよ」つって。そういうことをしてくれるなら感情があると認めてやろうじゃないか

45: hikalin8686 2026/04/04 23:38

えっマジか 最近おもしろがって暴言吐いたりしてたんだけど、嫌われると仕事進まなくなるからもっと優しく接しないとダメだな…反省

46: HiiragiJP 2026/04/04 23:42

本質的にはわれわれの感情も生存のために必要とされた機能に過ぎないんだと思うよ。向精神薬を飲んでると特にそう思う