LLMのアテンション機構が文脈学習や思考連鎖の鍵らしい。なるほど、完全に理解した(分かってない)
LLMの気持ちになるですよ
この辺から理解したい
特定の機能を持つヘッドが学習によって自然発生(収斂?)するのが面白い。帰納とか関数とか人間が命名済みの既知概念に当てはめてるだけで人間にとって未知のルール(メタ概念)も沢山あるんだろうな
アテンションの話、いつ聞いても理解できないんだよな。今度頑張って読む。
構造の話してるだけでデータが外挿かの話はしてない。てか外挿と言われてるデータが真に外挿と言える根拠は?
LLM のアテンションと外挿 - ジョイジョイジョイ
LLMのアテンション機構が文脈学習や思考連鎖の鍵らしい。なるほど、完全に理解した(分かってない)
LLMの気持ちになるですよ
この辺から理解したい
特定の機能を持つヘッドが学習によって自然発生(収斂?)するのが面白い。帰納とか関数とか人間が命名済みの既知概念に当てはめてるだけで人間にとって未知のルール(メタ概念)も沢山あるんだろうな
アテンションの話、いつ聞いても理解できないんだよな。今度頑張って読む。
構造の話してるだけでデータが外挿かの話はしてない。てか外挿と言われてるデータが真に外挿と言える根拠は?