ClaudeをAI SREで試すも根本原因特定は不可。相関を因果と誤認しSRE代替は難しい点を解説する。
「相関関係を因果関係と誤認し続ける」普通に人間もやってる
平気で嘘ばっかりいうChatGPTやGeminiはともかく、Anthropicがそう言うならそうなんだろうな
因果と相関の区別が付かないのはある意味人間らしい。医療とか人命が関わる分野に扱うのはまだ無理そう
でも半年後には相関関係と因果関係を区別できるようになってるんでしょ?
“Anthropicが「限界を認めた」というより「現時点の限界を正直に共有した」ととらえる方が正確かもしれません。”
やはりAIが作ったシステムを人間が御守りする未来になるのか。
AnthropicがAI SREの限界を報告。LLMは相関を因果と誤認し根本原因特定が困難。ログ整理は得意だが判断は人間必須。
AIの視点や視野を動かすような指示を人が行わないと最初に見つけた「原因っぽい事象」から離れないのは実際に使ってて感じる
AnthropicがAI SREの限界を公式認定。「相関関係を因果関係と誤認し続ける」
ClaudeをAI SREで試すも根本原因特定は不可。相関を因果と誤認しSRE代替は難しい点を解説する。
「相関関係を因果関係と誤認し続ける」普通に人間もやってる
平気で嘘ばっかりいうChatGPTやGeminiはともかく、Anthropicがそう言うならそうなんだろうな
因果と相関の区別が付かないのはある意味人間らしい。医療とか人命が関わる分野に扱うのはまだ無理そう
でも半年後には相関関係と因果関係を区別できるようになってるんでしょ?
“Anthropicが「限界を認めた」というより「現時点の限界を正直に共有した」ととらえる方が正確かもしれません。”
やはりAIが作ったシステムを人間が御守りする未来になるのか。
AnthropicがAI SREの限界を報告。LLMは相関を因果と誤認し根本原因特定が困難。ログ整理は得意だが判断は人間必須。
AIの視点や視野を動かすような指示を人が行わないと最初に見つけた「原因っぽい事象」から離れないのは実際に使ってて感じる