社訓を毎日唱和させられる感
なるほど
文頭に毎回書くと良いよ→外部化しようぜ→むっちゃ長文になったわ→毎回付けるとコンテクスト長食うから上手く付けるわ→忘れるから毎回書くと良いよ のループ感
雀荘でやる麻雀みたいだ
生成AIの限界がこれ
これは便利だなと思ってたら、ブコメで社訓唱和と言われてて笑ってしまった。
なんかこれは負けた気がする…
ジェイルハウスロック戦みたいになってきた
LoRA使ってモデル自体にルールを仕込めると忘れなくなるのかな
CLAUDE.md読み直せで解決できんのかのう
ルールをリファクタリングするべきでは笑笑
「奥が深い症候群」とかあったなそういや。
やはり毎朝社訓を唱和するのは効果的なんだよな
画像生成AIではmasterpieceなどの余計なプロンプトが不要になったように、いつかはLLMもシンプルなプロンプトになっていくと思う。たぶんいまは過渡期。
またたびキメてルールも記憶も吹っ飛んだ?ボクもよくやるにゃ!
ジョジョの第何部かの監獄編を思い出した。
振る舞いを観察して効果的な方法を編み出したのは素晴らしいのだけど、 CLAUDE\.md を毎回LLM requestにつける程度のことをなぜclaude codeはやってくれないのだろうという気もする。
都度ルール言わないと忘れると
chat方式の欠点だわなー。
そうそう。Geminiにもよく使う手。忘れて欲しくないことは、毎回唱えさせる。これ大事。
定期的な社訓の唱和みたいだなと思いながら読んでたら既にブコメされててよかった。
湯婆婆「文脈内学習(インコンテキストラーニング)? 贅沢な名だね。今からお前の名前は朝礼社訓絶叫だ。いいかい、朝礼社訓絶叫だよ。分かったら返事をするんだ、朝礼社訓絶叫!」
やってみよう
AIでお仕事、アホの子をしつけるのとなんら変わりなくなってきた感
まあこう言うのはさすがに過渡期ならではの光景なんだろうけど、なんか面白いな
“「毎チャット書き出せ」というルール自体を毎チャット書き出させるという再帰的な方法を取る”
昔のことはだんだん忘れていくってことは、社訓唱和分頭悪くなるってことだよなたぶん
何このブックマーク数。当たり前のことだと思ってたけど、そんな大きな発見だろうか。というか、プロジェクトへの新規参入者みたいに扱って行動を強制したい人たちの気持ちがわからん。
毎度確認されるの流石に面倒そう。カスタムコマンドで良いんじゃないかな?
まあこんなことしてもすぐ忘れるけどな!
コーディング用途のエージェントはルールを忘れない(なんなら不足してるルールを確認してくれる)挙動を組み込んで欲しい気持ち
トプコメみたいな、復唱させる系の体育会系職場を連想するわな。ああいう一見歪な風習も、使えない社員をなんとか使えるよう工夫した結果なのだろうか
加藤家家訓
昭和平成のハックが有用なの人間の思考はLLMと近い構造なんだと実感させられるな。
毎月1万ちょい払ってアホの相手して、相応のリターンが得られてるのか心配です
これはこれで、コンテキスト(直近のログをコンテキストウィンドウの空き分食べる)の一定比率が社訓で埋めつくされて性能劣化するから、本来はツール(Claude code)側で上手く調整したいところ
人間系と対話するI/Fとして画面の情報量が非効率すぎるのなんとかならんか?
Claude-Codeさんも大変やな
毎回出すのは無駄だし過渡期の工夫という感じ。プロンプトだけでやるならこうするしかないが、ツール側に手をいれたほうが良さそう。一定トークン周期とか、ルール準拠エージェントが間違い検知したらやり直すとか
ビジネスの常識が、①まずAIに聞け(ググレカスと同じ)、②AIがポンコツなんですけどと言わない(指示できない奴は情弱)、という社会になっているし、これに対応してない会社は3年で消えそう
ChatGPTもすぐにルールを忘れてそのたびに指摘するのダルかったので、やってみよう
こちらからの入力はある程度入力が重なると忘れちゃうの当たり前なので忘れちゃだめなことを復唱することを復唱させるのを強制しないとだめ記憶力が極端にわるい開発者と開発してると思え
AIでもしょっちゅう原理原則すら忘れるんだもの、ましてや人間じゃ仕方がないよね()
これで達成してるのは「ルールのペーストの手間の削減」。毎回、指示のたびに4原則(復唱はいらない)を最後に付け加える仕組みを作ってもだいたい同じ結果になるし、そっちが向いている環境ならそうしたらいい。
本来コンピュータが得意な部分が失われていて、そこは仕組みでなんとかできんのか疑問だよな。中の人どう思ってるのか。
Grokでもカスタムペルソナ設定出来るんだけどそこで設定した事無視してくるので悲しい
朝礼で毎日「今日もゼロ災で行こう!ヨシ!」と掛け声を全員で唱和する奴のAI版だ
そんなのでコンテクスト長を消費してたら生成の質のほうが低下しそう。
うちの子にこれを適用させたい
“どれだけ緻密なルールを組んでも3ラリーくらいするとすっかり忘れて”AI運用5原則
そんなものユーザーが直せる問題じゃない思うけどな
コンテキスト食う問題は、要約圧縮すれば解決するかも。コストの問題は依然残る
これたぶん解決は可能なんですよね。ただ1ユーザーにそんなたくさんメモリを使えないってだけで…
ワロタ 再帰的に指示を出し直すという考え方はプログラミング的でもあるのが興味深いね
“大事なのは再帰部分 という事で、5原則の中身は自由に変更して大丈夫ですが AIは全てのチャットの冒頭にこの5原則を逐語的に必ず画面出力してから対応する。 は残してください”
“CLAUDE.mdでどれだけ緻密なルールを組んでも3ラリーくらいするとすっかり忘れてどんどん適当に動き出す。なぜか語尾ルールだけは守られる→毎回出力してるから? AI運用5原則を毎チャット書き出させる”
面白いアイデアだ。ルールセットに名前をつけて、その名前だけを復唱してもらうことでコンテキストの消費を改善できそう。ちょっと試してみてる分にはいい感じ
人間と同じやないか。つかもっとメタ化できないの?しかしAIって大抵意図通りに動いてくれないのですごく試行錯誤が必要なのは、過渡期だからだと思いたい。現状だと使いこなすノウハウが人間側に必要
余計な文字出るけど再帰させると忘れにくくなるのね。社則毎日読む会社と一緒や…
一定トークン離れると関連性が薄れる構造だから長期記憶は難しいよね。AIに記憶容量を持たせて重要事項を記憶させたりすれば解決しそう。(アーキテクチャの話
言語モデルは普通のプログラムのように命令を実行するモデルじゃないから厳しいルールを順守させるのは向いてないんじゃないかと思っている。人間が寛容になった方が早い
TransformerベースのLLMの宿命なので方法はともかく愚直に解決する方法を持たせるしかないかと。
https://events.cancer.gov/sites/default/files/webform/office_of_data_sharing_abstract/_sid_/Does-coinbase-have-a-live-chat-Rapidly-chat-support%20_0.pdf
もともと全履歴が毎リクエストに付与されるのだが、距離が離れると忘れるのを、これは1履歴100会話があれば100回同じことをリクエストに重複で含めるという剛腕でトークンの無駄が激しい。最後の1回だけにならんか
再帰的に書き出す
おもろ
“AI運用5原則”
LLMにさせることを、をLLM自身に出力させることによってKEEPさせる。LLM赤ずきん原則を適用させる。
Max Modeを使っていたら、コンテキストモリモリなので、この現象が起こりやすそう。
人間と同じだ。
なんだろな、ほー
“<law> AI運用5原則 第1原則: AIはファイル生成・更新・プログラム実行前に必ず自身の作業計画を報告し、y/nでユーザー確認を取り、yが返るまで一切の実行を停止する。 第2原則: AIは迂回や別アプローチを勝手に行わず、
“第5原則: AIは全てのチャットの冒頭にこの5原則を逐語的に必ず画面出力してから対応する。” 「毎チャット書き出せ」というルール自体を毎チャット書き出させると/ 頭いい。しかし本来CC側でやることかも?
Claude Codeの「すぐルール忘れる問題」を解決する超効果的な方法を見つけた気がする
社訓を毎日唱和させられる感
なるほど
文頭に毎回書くと良いよ→外部化しようぜ→むっちゃ長文になったわ→毎回付けるとコンテクスト長食うから上手く付けるわ→忘れるから毎回書くと良いよ のループ感
雀荘でやる麻雀みたいだ
生成AIの限界がこれ
これは便利だなと思ってたら、ブコメで社訓唱和と言われてて笑ってしまった。
なんかこれは負けた気がする…
ジェイルハウスロック戦みたいになってきた
LoRA使ってモデル自体にルールを仕込めると忘れなくなるのかな
CLAUDE.md読み直せで解決できんのかのう
ルールをリファクタリングするべきでは笑笑
「奥が深い症候群」とかあったなそういや。
やはり毎朝社訓を唱和するのは効果的なんだよな
画像生成AIではmasterpieceなどの余計なプロンプトが不要になったように、いつかはLLMもシンプルなプロンプトになっていくと思う。たぶんいまは過渡期。
またたびキメてルールも記憶も吹っ飛んだ?ボクもよくやるにゃ!
ジョジョの第何部かの監獄編を思い出した。
振る舞いを観察して効果的な方法を編み出したのは素晴らしいのだけど、 CLAUDE\.md を毎回LLM requestにつける程度のことをなぜclaude codeはやってくれないのだろうという気もする。
都度ルール言わないと忘れると
chat方式の欠点だわなー。
そうそう。Geminiにもよく使う手。忘れて欲しくないことは、毎回唱えさせる。これ大事。
定期的な社訓の唱和みたいだなと思いながら読んでたら既にブコメされててよかった。
湯婆婆「文脈内学習(インコンテキストラーニング)? 贅沢な名だね。今からお前の名前は朝礼社訓絶叫だ。いいかい、朝礼社訓絶叫だよ。分かったら返事をするんだ、朝礼社訓絶叫!」
やってみよう
AIでお仕事、アホの子をしつけるのとなんら変わりなくなってきた感
まあこう言うのはさすがに過渡期ならではの光景なんだろうけど、なんか面白いな
“「毎チャット書き出せ」というルール自体を毎チャット書き出させるという再帰的な方法を取る”
昔のことはだんだん忘れていくってことは、社訓唱和分頭悪くなるってことだよなたぶん
何このブックマーク数。当たり前のことだと思ってたけど、そんな大きな発見だろうか。というか、プロジェクトへの新規参入者みたいに扱って行動を強制したい人たちの気持ちがわからん。
毎度確認されるの流石に面倒そう。カスタムコマンドで良いんじゃないかな?
まあこんなことしてもすぐ忘れるけどな!
コーディング用途のエージェントはルールを忘れない(なんなら不足してるルールを確認してくれる)挙動を組み込んで欲しい気持ち
トプコメみたいな、復唱させる系の体育会系職場を連想するわな。ああいう一見歪な風習も、使えない社員をなんとか使えるよう工夫した結果なのだろうか
加藤家家訓
昭和平成のハックが有用なの人間の思考はLLMと近い構造なんだと実感させられるな。
毎月1万ちょい払ってアホの相手して、相応のリターンが得られてるのか心配です
これはこれで、コンテキスト(直近のログをコンテキストウィンドウの空き分食べる)の一定比率が社訓で埋めつくされて性能劣化するから、本来はツール(Claude code)側で上手く調整したいところ
人間系と対話するI/Fとして画面の情報量が非効率すぎるのなんとかならんか?
Claude-Codeさんも大変やな
毎回出すのは無駄だし過渡期の工夫という感じ。プロンプトだけでやるならこうするしかないが、ツール側に手をいれたほうが良さそう。一定トークン周期とか、ルール準拠エージェントが間違い検知したらやり直すとか
ビジネスの常識が、①まずAIに聞け(ググレカスと同じ)、②AIがポンコツなんですけどと言わない(指示できない奴は情弱)、という社会になっているし、これに対応してない会社は3年で消えそう
ChatGPTもすぐにルールを忘れてそのたびに指摘するのダルかったので、やってみよう
こちらからの入力はある程度入力が重なると忘れちゃうの当たり前なので忘れちゃだめなことを復唱することを復唱させるのを強制しないとだめ記憶力が極端にわるい開発者と開発してると思え
AIでもしょっちゅう原理原則すら忘れるんだもの、ましてや人間じゃ仕方がないよね()
これで達成してるのは「ルールのペーストの手間の削減」。毎回、指示のたびに4原則(復唱はいらない)を最後に付け加える仕組みを作ってもだいたい同じ結果になるし、そっちが向いている環境ならそうしたらいい。
本来コンピュータが得意な部分が失われていて、そこは仕組みでなんとかできんのか疑問だよな。中の人どう思ってるのか。
Grokでもカスタムペルソナ設定出来るんだけどそこで設定した事無視してくるので悲しい
朝礼で毎日「今日もゼロ災で行こう!ヨシ!」と掛け声を全員で唱和する奴のAI版だ
そんなのでコンテクスト長を消費してたら生成の質のほうが低下しそう。
うちの子にこれを適用させたい
“どれだけ緻密なルールを組んでも3ラリーくらいするとすっかり忘れて”AI運用5原則
そんなものユーザーが直せる問題じゃない思うけどな
コンテキスト食う問題は、要約圧縮すれば解決するかも。コストの問題は依然残る
これたぶん解決は可能なんですよね。ただ1ユーザーにそんなたくさんメモリを使えないってだけで…
ワロタ 再帰的に指示を出し直すという考え方はプログラミング的でもあるのが興味深いね
“大事なのは再帰部分 という事で、5原則の中身は自由に変更して大丈夫ですが AIは全てのチャットの冒頭にこの5原則を逐語的に必ず画面出力してから対応する。 は残してください”
“CLAUDE.mdでどれだけ緻密なルールを組んでも3ラリーくらいするとすっかり忘れてどんどん適当に動き出す。なぜか語尾ルールだけは守られる→毎回出力してるから? AI運用5原則を毎チャット書き出させる”
面白いアイデアだ。ルールセットに名前をつけて、その名前だけを復唱してもらうことでコンテキストの消費を改善できそう。ちょっと試してみてる分にはいい感じ
人間と同じやないか。つかもっとメタ化できないの?しかしAIって大抵意図通りに動いてくれないのですごく試行錯誤が必要なのは、過渡期だからだと思いたい。現状だと使いこなすノウハウが人間側に必要
余計な文字出るけど再帰させると忘れにくくなるのね。社則毎日読む会社と一緒や…
一定トークン離れると関連性が薄れる構造だから長期記憶は難しいよね。AIに記憶容量を持たせて重要事項を記憶させたりすれば解決しそう。(アーキテクチャの話
言語モデルは普通のプログラムのように命令を実行するモデルじゃないから厳しいルールを順守させるのは向いてないんじゃないかと思っている。人間が寛容になった方が早い
TransformerベースのLLMの宿命なので方法はともかく愚直に解決する方法を持たせるしかないかと。
https://events.cancer.gov/sites/default/files/webform/office_of_data_sharing_abstract/_sid_/Does-coinbase-have-a-live-chat-Rapidly-chat-support%20_0.pdf
もともと全履歴が毎リクエストに付与されるのだが、距離が離れると忘れるのを、これは1履歴100会話があれば100回同じことをリクエストに重複で含めるという剛腕でトークンの無駄が激しい。最後の1回だけにならんか
再帰的に書き出す
おもろ
“AI運用5原則”
LLMにさせることを、をLLM自身に出力させることによってKEEPさせる。LLM赤ずきん原則を適用させる。
Max Modeを使っていたら、コンテキストモリモリなので、この現象が起こりやすそう。
人間と同じだ。
なんだろな、ほー
“<law> AI運用5原則 第1原則: AIはファイル生成・更新・プログラム実行前に必ず自身の作業計画を報告し、y/nでユーザー確認を取り、yが返るまで一切の実行を停止する。 第2原則: AIは迂回や別アプローチを勝手に行わず、
“第5原則: AIは全てのチャットの冒頭にこの5原則を逐語的に必ず画面出力してから対応する。” 「毎チャット書き出せ」というルール自体を毎チャット書き出させると/ 頭いい。しかし本来CC側でやることかも?