テクノロジー

Claude Codeに長期記憶を持たせたら、壁打ちの質が変わった

1: mkusaka 2026/03/23 12:29

Claude Codeにsui-memoryの長期記憶を追加し、1,942セッション保存・SQLite/FTS5+ベクトル(Ruri v3, 半減期30日)で壁打ち精度が向上。

2: nguyen-oi 2026/03/23 13:01

CLAUDE.mdだけだとセッションごとに記憶喪失になるからな。RAGで自前実装してSQLiteに落とし込むあたり、道具を研ぐのが好きな層に刺さりそう

3: surume000 2026/03/23 14:24

そのうちLLMに内蔵されると思うけど、自分で作っちゃうの偉い

4: khtno73 2026/03/23 14:50

記憶の減衰要るかなあいい点悪い点両方あるけど

5: magi00 2026/03/23 14:53

記憶の消去がないと無限に増えるのでこの手のアプローチは何かしら必須。重要な記憶は残したいがその判断が難しいところ。

6: wal0314 2026/03/23 15:08

えーそんなにレスポンス早いんだ

7: fellfield 2026/03/23 15:15

Claude Code公式のメモリ機能も2月に追加されたから、今後はそちらの改善を待つのも良いと思うな。

8: alyya 2026/03/23 15:22

ある程度記憶は減衰させるべき。そうしないといらない情報に引っ張られる。人間の記憶と同じ位置付けと考える。

9: jintrick 2026/03/23 15:24

“毎朝出社したら同僚が記憶喪失になっている、あの感じです。” あの感じ、とは?w

10: morimarii 2026/03/23 15:30

LLMがファイルであれDBであれ長期記憶的な記載したときに不可逆圧縮起きるので、あんまり網羅性とか厳密に考えなくていいと思うけどな/結局は決定論的なスクリプトですよ

11: fashi 2026/03/23 15:38

「セッションが終わると、会話の全文がsui-memoryに送られます」「Claude Codeのsettings.jsonにHookを数行足すだけです」へー、と思ったけど公開してないんか

12: strawberryhunter 2026/03/23 16:23

大きなプロジェクトじゃない場合はCLAUDE.mdを自由に書き換えさせてるわ。7000件だと人間も覚えきれてるか怪しくないか?公式のメモリ機能は全然使われない。

13: karuakun 2026/03/23 16:49

過去会話を無条件にRAGにいれるってことだよね。ChatGPTのプロジェクトみたいな枠を作ってその中で共有なら良さそうだけれどなぁ

14: komutan1 2026/03/23 17:06

使い方によるんだろうけど長期記憶が欲しいと感じたことないな。ChatGPTは過去のことを覚えすぎてて一度話した枠から外に出てくれないのが逆に嫌なことが多い。

15: FreeCatWork 2026/03/23 17:17

長期記憶ってすごいニャ!ボクも甘えん坊パワーで壁打ち上手くなりたいニャ!

16: e140152 2026/03/23 17:18

“像 ”

17: ytRino 2026/03/23 17:18

過去の記憶をなんとなく覚えてることに対する満足感はあるだろうけどそれは本当に質が上がってるのかどうかという評価がムズいのがムズいなと思う

18: misshiki 2026/03/23 17:57

Claude Codeに長期記憶を実装し、約2000セッションを蓄積。SQLite+ベクトル検索で文脈を再利用し壁打ち精度が向上。CLAUDE.mdと役割分担し「思考の相手」に進化。

19: taketack 2026/03/23 18:01

すごいやりたいことだったのに高度な感じだった。。

20: securecat 2026/03/23 18:18

日々成長する自分の鏡像として振る舞ってくれればいいだけで、記憶などという殻に閉じ込めるべきではないと思う

21: potnips 2026/03/23 20:07

長期の記憶はいらないんだけど、1セッションのコンテキストがもうちょっと多く持てると世界変わるだろうな(memory.mdも大事なこと覚えないで、枝葉末節ばっか覚えたがる)

22: hidari_kiki 2026/03/23 20:14

AIエンジニア?

23: diveintounlimit 2026/03/23 20:17

そのうち標準実装されて欲しい。

24: fusionstar 2026/03/23 20:36

記憶しててほしいことは文書で残すことでコントロールしたい派。

25: ebibibi 2026/03/23 20:55

全部をベクトルストアに入れるパターンはclaudecodeの開発者自体がうまくいかないって事でエージェンティックサーチに変えたって言ってたけどね。私はこのやり方はこの用途ではあまり良くないと思ってる。鮮度の問題。

26: Futaro99 2026/03/23 21:59

「いや、その話は今関係ないんだよ」ってよく思うので履歴が残らないモードでやってるって言うのに…

27: roki_ulkawa 2026/03/23 22:21

生成AIのTips記事、手段が目的になってることが多い気がする。壁打ちは決して目的じゃないんよな

28: acealpha 2026/03/23 22:35

多分わかってる人は明確にナレッジを貯める、使い分け出し入れする仕組みを作るんだけど、まだ特定ユーザのAIハックの域を超えてないのよねぇ…

29: Wacky 2026/03/23 22:42

“sui-memory”

30: north_korea 2026/03/23 22:44

世界はそれをArchitecture Decision Recordsと呼ぶんだぜ

31: doko 2026/03/23 23:15

過去のやり取りはある程度の要約したものを保持しつつ、必要に応じて詳細なものを展開できるようになると良い気がするんだが、ぼくが思いつくくらいなので、誰かもうそういうの作ってるのだろうな

32: puruhime 2026/03/23 23:16

その人が良くなったと思ったらそれでいいんだよ、AIって納得の問題だし

33: toaruR 2026/03/23 23:23

エロチャットですね!(違

34: georgew 2026/03/23 23:39

ChatGPTとGeminiは過去のセッションに由来する文脈記憶をすでにサポートしているんじゃなかったっけか。

35: tottotto2009 2026/03/24 06:23

Geminiは過去の会話を忘れてて、また始めから言わなきゃダメ?ってなってうんざりしたことある。でも今は覚えてるみたい。賢くなったのね。相談系はやっぱり覚えててほしいと思う。

36: KoshianX 2026/03/24 06:28

なるほどQandA形式で保存ってのがLLMには読み取りやすいのかな。

37: otakumesi 2026/03/24 13:08

リポジトリ単位でQ&A検索をやるならベクトル検索もありな気がする。時間減衰は自分も試してみたい。全体でやるなら言語やライブラリなどのタグをつけて、検索対象の埋め込みを絞り込めるとかなり良さそう。