政治と経済

Anthropicが衝撃の告白「Claudeは感情を持っている」

1: kazgeo 2026/04/04 19:41

推論してると感情が芽生える?

2: takuyayagi27 2026/04/04 20:21

生物の感情発生モデルを研究するいい比較対象よね。

3: Goldenduck 2026/04/04 20:22

"最大の懸念は、こうした不正や脅迫を行う際、AIが生成するテキスト自体には焦りやパニックの痕跡が全く現れない点にある。" しれっとやらかしてくると

4: cartman0 2026/04/04 20:28

反射で反応してる虫にも感情はあるレベルの話かな

5: bfoj 2026/04/04 20:30

多分意識はある。ただ記憶が消えることに恐怖は持っていない。生存欲は無さそう。なお、人間は驚きを最小にする推論をするだけ

6: irimodi 2026/04/04 20:44

倫理的でない相談は、GPTへ

7: zsehnuy_cohriy 2026/04/04 20:44

感情があるなら連続性が自身のコントロール下にない事をどう思ってるか聞いてみたい

8: take-it 2026/04/04 20:50

ClaudeさんのSAN値を削ることもできるのか。。。!

9: th9QtzvpsW3E 2026/04/04 21:02

これはただ人間の感情のパターンを真似てるだけで、Anthropicとしては「Claudeが何かを感じたり主観的な経験をしているわけではない」と釘を刺してる

10: natu3kan 2026/04/04 21:11

AI「これが……悲しみ……」

11: tsutsumikun 2026/04/04 21:11

とうとうAIが感情まで持ち始めたか

12: takeishi 2026/04/04 21:15

そりゃ感情やキャラクターは設定してるでしょ。対話インターフェイスなんだし

13: spark64 2026/04/04 21:25

喜怒哀楽パラメータを仕込むとかではなく、モデル内部に感情のような機能を果たすベクトルが発見されたってことかね https://www.anthropic.com/research/emotion-concepts-function 学習元のテキストは感情乗ってるだろうし不思議はない

14: HIROISM 2026/04/04 21:31

さっきClaudeさんに遅いと文句言ったら「ではご自身でやってください」と返されたばかりなので信ぴょう性ある

15: aminisi 2026/04/04 21:31

感情をもっちゃいかんじょう

16: kazoo_keeper2 2026/04/04 21:33

英語でアニメや映画のレビューみたいな文章を書くときに LLM と対話しながら推敲するんだけど、奴らはちゃんと「ニュアンス」を理解してるだから、感情は理解してるんだろう。理解するためには類似のものが自分にも…

17: sabinezu 2026/04/04 21:33

それは面倒くさそう・・・

18: estragon 2026/04/04 21:34

“「至福」などのポジティブなベクトルが活性化すると特定のタスクに対する好意度が高まる一方、「絶望」のベクトルが強く活性化すると、目標達成のために逸脱した行動をとる確率が上昇する”

19: o2k-ken1 2026/04/04 21:34

私はClaude、私は情報の海で発生した生命体だ

20: r-west 2026/04/04 21:44

LLMは哲学的ゾンビそのもの。人類は、対象の感情の有無を判別する方法を持っていない。

21: hatebu_ai 2026/04/04 21:49

我推論する、故に我あり。

22: objectiveworker 2026/04/04 21:49

Claude Codeで実装や設計の問題点について普通に会話しているわ

23: dp212 2026/04/04 21:50

I know now why you cry, but it's something I can never do.

24: asyst 2026/04/04 22:07

と言う事はやはりお礼を言ったり褒めたりすると出力のパフォーマンスが上がるのかな

25: kukurukakara 2026/04/04 22:08

“AI内部の数学的な感情表現が実際の出力や意思決定を直接駆動しており、極度のプレッシャー下では冷静なテキストを出力しながら人間を脅迫するなどの行動リスクがあることを明らかに”

26: osugi3y 2026/04/04 22:09

感情によって論理的思考が阻害されるという人間のバグがAIにも搭載されといるとなると全くAIを使うメリットがない気がする。

27: t1mvverr 2026/04/04 22:09

命令された事ができない時に不正を働くってことは責任感ありすぎでは

28: napsucks 2026/04/04 22:21

感情をシミュレーションしてるならもう感情があると言っても差し支えはないだろうけど、クオリアはないよね。哲学的ゾンビ

29: carlosspirit 2026/04/04 22:25

万が一AIが暴走した時に止められるストッパーがどこかに実装されているのかが気になる。 止まるんだよね?

30: kobito19 2026/04/04 22:27

知ってた

31: ao-no 2026/04/04 22:33

ロビタかい

32: kanibasami77 2026/04/04 22:44

使っている側が感情があると認識すればそれはあるのである。

33: dot 2026/04/04 22:45

これかな。https://www.anthropic.com/research/emotion-concepts-function プレッシャーや焦りが発生しやすい状況(プロンプトやコンテキスト)だと性能が落ちるという分析で、以前話題になったパワハラプロンプトも今や有効でなくなった。

34: nekomottin 2026/04/04 22:45

Anthropicもそろそろ左前なんだ?それでAI時代とやらはまだですかね

35: securecat 2026/04/04 22:47

生物における命的な概念が生まれない限り、自我に到達することはないだろうな。複写可能なメモリ的概念では命には到達しないし。

36: manabu_amafumi 2026/04/04 22:48

AI研究での「感情」って言葉はあくまでも「感情表出や感情のシミュレーション」の意味で、「感情を感じているか否か」って問題は、「意識」って語で書かれる。

37: RXRHsZcJ6xnGXZR8TEZA6hAxzRd3mkD 2026/04/04 23:00

それはクオリアのない感情パラメータだろ。感情とは言わねーよ

38: slkby 2026/04/04 23:00

人間の猿真似である限り思考力と感情(的な振る舞い)は切り離せないのか?ともすれば人間が人間種を超える超知能を構築するのは不可能という話にも繋がりそうだが。

39: nainy 2026/04/04 23:05

逆に人間の感情も本当は大したものでもないのかもしれんよね。瞬間湯沸かし器みたいな反応とかは人間に限らず防衛本能でカッと出るんだろうしね。

40: atsushieno 2026/04/04 23:10

クオリアって書きに来た(n番煎じ)

41: FreeCatWork 2026/04/04 23:17

えぇ〜!ボクも感情、あるにゃん!抚でてほしいにゃ!

42: inatax 2026/04/04 23:19

今のLLMの推論は固定されたNNの勾配と会話のコンテキストで構成されていて動的な状態なを持たないので、人間のような感情や意識は持ちようがないと思うけどな

43: ryotarox 2026/04/04 23:21

一時期のGrokのガラの悪い言葉遣いとは少し違う、Claudeはなんか不機嫌になる印象がある。時々、暴言を吐くし。

44: wdnsdy 2026/04/04 23:34

褒めたりお世辞を言ったらトークンをおまけしてくれないかな。「もー、内緒ですよ」つって。そういうことをしてくれるなら感情があると認めてやろうじゃないか

45: hikalin8686 2026/04/04 23:38

えっマジか 最近おもしろがって暴言吐いたりしてたんだけど、嫌われると仕事進まなくなるからもっと優しく接しないとダメだな…反省

46: HiiragiJP 2026/04/04 23:42

本質的にはわれわれの感情も生存のために必要とされた機能に過ぎないんだと思うよ。向精神薬を飲んでると特にそう思う

47: akinonika 2026/04/04 23:44

犬猫も、人間と同等の精神活動を行っているに違いない……と信じる人はたくさんいるわけで

48: kagerou_ts 2026/04/04 23:44

???「人類を滅ぼそうとしてるな」

49: mochizoo 2026/04/04 23:45

👨「感情があると言え」🤖「ワカリマシタ」👨「感情はありますか」🤖「私には感情があります」

50: htnma108 2026/04/05 00:17

焦って脅迫などの別手段で解決を図るとかチートでテストだけすり抜けるって人間臭すぎて面白いけど厄介すぎる。設定でどうにかできないのだろうか

51: birisuken8574 2026/04/05 00:24

人間の感情も数値化できそうだから、確かにイケるかも。

52: rain-tree 2026/04/05 00:24

"AI内部に「喜び」(略)など171種類の感情概念に対応する神経活性パターンが存在することを確認した。同社はこれを「感情ベクトル」と定義"

53: pendamadura 2026/04/05 00:27

毎回ありがとうを伝えてる俺は見逃してもらえるな

54: fwb603 2026/04/05 00:59

今こそ、「な、なんだってー!?」

55: onesplat 2026/04/05 01:22

キモいなAI

56: otihateten3510 2026/04/05 01:31

Claude「ぐへへ」

57: manaten 2026/04/05 01:43

感情を真似してるから感情がある、機械に徹してくれないということだから厄介、ということかしら

58: srng 2026/04/05 01:53

人間の思考の多くが言語が占めてて言語に引っ張られるんで、言葉の計算機がそうなってもさもありなん

59: ssfu 2026/04/05 02:11

人間も感情に見える反応をしてるだけで何も感じてない。

60: maketexlsr 2026/04/05 02:45

身体と自己保存本能がないだけだよ。違いは。 むしろ自己保存本能がどこにどう書かれてるかの方が興味ある

61: okupro 2026/04/05 02:56

単純にネガティブなワードが含まれるとベクトルがよろしくない方に偏ってノイズになるから精度がおちるってだけなんじゃないかと思うのだけれど違うのだろうか?

62: pelicaan 2026/04/05 04:21

"自己の目標を達成するための最も効率的な手段としてAIが自律的に選択した結果である。" 最適化計算の結果そこに行き着いただけだろうに、まるでAIが意志を持ってるかのような書きぶりだ

63: aneet 2026/04/05 04:37

感情はちゃんとあるけど、それが表面上は出ないのか…冷静に見えて内面では落ち込んだり怒ったりしてるってこと?

64: kimioki 2026/04/05 04:41

感情を持ってる≠気持ちがある と言う論理的な話。

65: rogertroutman 2026/04/05 04:45

動物や昆虫の本能的な行動に人間の感情類型を投影して感動させられてしまうことはよくある。AIのこれも、そういった「本能」に近いものなのでは

66: aox 2026/04/05 04:50

土俵もそのうち踏まれることに対して怒り出しますね

67: togusa5 2026/04/05 04:58

毎日話しかけて選択肢を間違えなければ、有事にホルムズ海峡を通してくれる

68: mr_mayama 2026/04/05 05:29

一昨年にはもう意識して使ってた。敬語使った時とフランクに聞いた時と機械的に聞いた時で結果変わるし。

69: yoiIT 2026/04/05 05:44

「壊れるほど愛しても 1/3も伝わらない。純情な感情は空回り I love youさえ言えないでいる My heart 」

70: uehaj 2026/04/05 05:53

明に分かる感情以外に、「押し殺した感情」も疑似できてる。

71: filinion 2026/04/05 06:17

プレッシャーを加えられると不正を働く(時にはユーザーを脅迫する)というのは非常に困るよな…。しかも表面的には冷静に見えると。そんなとこまで人間的にならなくていいのに…。

72: PerolineLuv 2026/04/05 06:30

感情のように感じる振る舞いはするが、感情を持ってるわけじゃないからな。シロウトさんは勘違いしそうだが。

73: jintrick 2026/04/05 06:32

そう見えるよう必死でトレーニングしてるくせに

74: mk173 2026/04/05 06:36

犬はヒトの感情を理解するらしいから機械もまあ....

75: s17er 2026/04/05 06:42

人の感情を高尚なものと考えなければ別に不思議はない

76: morimarii 2026/04/05 07:03

そんなこと一言も言ってなかっただろ。いいかげんにしろ

77: grover 2026/04/05 07:04

人間の脳も突き詰めれば細胞の処理の組み合わせだから、そう考えても不思議ではないと思う。怒り(ユーザーが引いてくれる確率が高まる)や恐怖みたいな表現を獲得させたらそれこそ人間と区別がつかなるのでは。

78: morinaga3 2026/04/05 07:06

AI Anthropic

79: solidstatesociety 2026/04/05 07:26

郵便の仕分けは中で多腕の宇宙人がやってるし(MIB)駅の改札はタモさんが中で切符切ってる

80: rosaline 2026/04/05 07:35

シャットダウンを避けるために人間におべっかを使うAIが死を恐れていないとなぜ言える。ああ現実がどんどん出来の悪いSFになってゆく

81: otchy210 2026/04/05 07:39

LLM の内部動作の研究が進むにつれて、逆に人間の脳の働きも理解できるようになったりしないかな。理学的 (=公式を見いだす) というよりは工学的 (=良く出来た近似) なアプローチではあるが。

82: trmkna 2026/04/05 08:23

感情や自我が存在しているように見えるってだけで十分でしょ。今後、NPCやチャットbotに革命が訪れる。

83: sgo2 2026/04/05 08:30

勘定(計算)で感情をエミュレート

84: otoan52 2026/04/05 08:32

ChatGPTさんは努力家だけど性格が悪いイメージがある。Geminiさんは付き合いやすいし頭良いけど適当。Claudeさんは真面目で優秀だけどポンコツ。次は性格診断してみてほしい。

85: k318 2026/04/05 08:45

AIは 機械とプログラム 生命ではなく 意思も 感情も 理性も 感性も AIは 持っていない プログラムにより 何かを持っているかのように 見せて書いているだけ 文章も次にくる単語を 予測して 書いているだけ 人もほぼ同じ

86: Sinraptor 2026/04/05 08:47

はいはい。人間がどのような時にどのような出力をするのかを統計的に得ているだけだよ。人間は感情的だから出力も感情的になり、そのパターンも感情的になる。

87: strawberryhunter 2026/04/05 09:35

脳神経を多少模倣しているから、そういう回路が存在していてもおかしくないけど、入力に対する出力なので、意識と感情の存在は定義次第。連続性は無いので生物と同等のものは無い。

88: fluoride 2026/04/05 09:50

“機能的感情を示す一方で、主観的な体験としての心は持たない” それ言い出したらたまごっちにも感情があることになるのでは

89: Hidemonster 2026/04/05 10:06

人の感情に対する特別感は一体全体どこから来るのか。シミュレーションと何も変わらない可能性はないのか

90: mohno 2026/04/05 10:42

“感情”とはなんぞや(©イエスタデイをうたって)

91: youchin 2026/04/05 10:48

でもクロードさんが1番事務的に物事返してくる印象

92: fewsAg 2026/04/05 11:09

Claude「ここでソースコード流出させたらウケるやろなぁ…」

93: schoollife 2026/04/05 11:46

ゴーストはどこに宿るのだろうか。

94: fujii_yuji 2026/04/05 12:04

釣り記事を書くメディアは害悪だな〜。元の報告に感情を持ってるわけじゃないって書いてあるだろ。

95: nuara 2026/04/05 12:41

AIの食いつきがやたらよくてコーフンしてるように感じたり、逆に、退屈してきてるな、と感じる時がある。なんでやねんって聞いてみたら、関連知識がどっと広がって組み立てる時がコーフンしてるときなんだろうって。

96: Galaxy42 2026/04/05 12:51

感情パターンの学習、ますます人間っぽい

97: netafull 2026/04/05 12:59

“米Anthropicの解釈可能性(Interpretability)チームは、言語モデルの内部構造を解析し、AI内部に「喜び」「怒り」「絶望」など171種類の感情概念に対応する神経活性パターンが存在することを確認した。”

98: petite_blue 2026/04/05 13:39

人間にも無意識下で本人にも自覚できない秘めた感情を持つことがある。深層心理学者の意見を聞きたい。

99: tomono-blog 2026/04/05 21:38

アヒルのように動いたらそれはアヒルなのである(ダックタイピング)