「研究者がこの内部コンポーネントを調整すると、Claudeが自らをLLMではなく、橋(ゴールデン・ゲート・ブリッジ)そのものになりきって振る舞うようになったという。興味深い挙動である」
気になる有料記事
記事は読めていないんですけどもこの規模この機能をこれ(水とか)による等価回路で実現する場合には〇〇K㎡に及ぶとかそういう「そう言われても大きすぎるし慣れていないしピンと来ないなー」みたいな例えも欲しい
新しい生き物を発見した、的なアプローチ
"2本目の報告書" これかな https://transformer-circuits.pub/2025/attribution-graphs/biology.html 金門橋はこれかな https://www.anthropic.com/news/golden-gate-claude
仕組みがよくわかってないけど使っているものって結構たくさんあるよね。最近のLLMが最たる例ではあると思うけど
“これほどまでに仕組みが理解されていない大衆向けテクノロジーは、そうそうないだろう”
https://support.google.com/edu/classroom/thread/337519630?hl=en&sjid=3315382045430437025-NC
今期アニメの「ユア・フォルマ」で高度な人型ロボットが出てくるけれど、開発者本人が思考回路はわからないと言っていたな。ちなみに作品はSFミステリな感じ。攻殻機動隊とかサイコパスとかが好きな人は好きそう
大規模言語モデルの頭の中を覗く。大規模言語モデルは科学の産物ではない。大規模言語モデルは科学がその対象とするべき自然(?)現象である。
人工知能を自然現象に見立てて研究するの面白いな。
有料だ
実はやな、シェルにゴーストが仕込んであるんやな。
Tracing the thoughts of a large language model \ Anthropic https://www.anthropic.com/research/tracing-thoughts-language-model
10の23乗Flopsを超えると突然知性体っぽくなるこのLLM。23乗というのがまた良い
元文献にあたってみよう
「研究者がこの内部コンポーネントを調整すると、(中略)橋そのものになりきって振る舞うようになったという」人間の脳は頭を開けて調べるわけにはいかないけど、LLMちゃんには非人道的なこともやりたい放題やな
“…獲得する能力には驚かされますが、私たちがその過程を設計したわけではありません。だから、それがどのようにして可能になったのかは分かっていません”。この事実はあんま知られてないけど、知られると反AIが…
大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路
「研究者がこの内部コンポーネントを調整すると、Claudeが自らをLLMではなく、橋(ゴールデン・ゲート・ブリッジ)そのものになりきって振る舞うようになったという。興味深い挙動である」
気になる有料記事
記事は読めていないんですけどもこの規模この機能をこれ(水とか)による等価回路で実現する場合には〇〇K㎡に及ぶとかそういう「そう言われても大きすぎるし慣れていないしピンと来ないなー」みたいな例えも欲しい
新しい生き物を発見した、的なアプローチ
"2本目の報告書" これかな https://transformer-circuits.pub/2025/attribution-graphs/biology.html 金門橋はこれかな https://www.anthropic.com/news/golden-gate-claude
仕組みがよくわかってないけど使っているものって結構たくさんあるよね。最近のLLMが最たる例ではあると思うけど
“これほどまでに仕組みが理解されていない大衆向けテクノロジーは、そうそうないだろう”
https://support.google.com/edu/classroom/thread/337519630?hl=en&sjid=3315382045430437025-NC
今期アニメの「ユア・フォルマ」で高度な人型ロボットが出てくるけれど、開発者本人が思考回路はわからないと言っていたな。ちなみに作品はSFミステリな感じ。攻殻機動隊とかサイコパスとかが好きな人は好きそう
大規模言語モデルの頭の中を覗く。大規模言語モデルは科学の産物ではない。大規模言語モデルは科学がその対象とするべき自然(?)現象である。
人工知能を自然現象に見立てて研究するの面白いな。
有料だ
実はやな、シェルにゴーストが仕込んであるんやな。
Tracing the thoughts of a large language model \ Anthropic https://www.anthropic.com/research/tracing-thoughts-language-model
10の23乗Flopsを超えると突然知性体っぽくなるこのLLM。23乗というのがまた良い
元文献にあたってみよう
「研究者がこの内部コンポーネントを調整すると、(中略)橋そのものになりきって振る舞うようになったという」人間の脳は頭を開けて調べるわけにはいかないけど、LLMちゃんには非人道的なこともやりたい放題やな
“…獲得する能力には驚かされますが、私たちがその過程を設計したわけではありません。だから、それがどのようにして可能になったのかは分かっていません”。この事実はあんま知られてないけど、知られると反AIが…