Claude Codeで「原始人プロンプト」型に出力短縮を求めると、Cache Read(99.93%)で節約効果は限定的で幻覚増懸念も解説する。
「原始人になれ」と言われて本当に性能落ちるの草。丁寧語削るよりキャッシュと入力を削る方が賢明という現実。技術者の執念を感じる良記事
前回その話題をみたときに思ったんだけどやっぱりそこの文字数を減らしてもトークン使用量的には誤差みたいなもんだったのね。
弊害があるのはそうだと思う。/ Cache Read が99.93%の話の後ろに書かれていた、Cache Read は単価が安いという話が削除されていた。 https://web.archive.org/web/20260418021120/https://zenn.dev/holy_fox/articles/e0c0bf75fba9e6
ネタにマジレス……
大してトークンの節約にはならない上に、Claudeの思考を制限して思考レベルまで原始人にしてしまうなど、cavemanは意味なさそう。もっと効果的なトークン節約法も書いてある
”ほーりーふぉっくす 高校生だよ”
あの投稿信じてる人ほとんど非エンジニアでしょ。あとこの人高校生ってプロフに書いてある。ほんとかよw
AIネイティブ世代に勝てると思うなよ!!!!!!!!
トークン使用量じゃなくてまどろっこしいやり取りでストレスが溜まるから。下手な言い訳が短ければ短いほどいい
結論は変わらないかもしれないけど、日本語はトークンの効率が悪いって話だから、日本語を使用した場合の数値を出すべきでは?
もしかしてこれ「現代人は漫画も文字が多すぎて読めない」とかと関係してる? 文字が読めるなんて俺TSUEE時代が来ちゃってる?
ウホッ…
トークン使用してるのそこじゃないでしょ、とふわっと思ってはいたけど、色々な方面からデータ込みで反論が載っていて参考になった。/この手の活用術が多すぎ。公式のベストプラクティス以外は基本信用してない。
原始人がコード書けるわけないやろ!
「近年の研究は、ペルソナ付与がモデル性能に中立どころか負の影響を与えうることを繰り返し示しています(中略)「簡潔に」指示は幻覚率を最大20%悪化させうる」
単発の短いジョブならともかく、継続的なプロジェクトで作業結果の報告を雑にされると次の指示に影響が出るから、悪影響しか無いよね。
“挨拶・クッション言葉・冗長な前置きを削る意味があるのか。ペルソナ付与「原始人のように」は負の影響。会話はトークン消費の10%なので圧縮効果は薄い。最初から「4行以内」「余計な前置き・後置き禁止」”
つまりGitHub copilotを使ってる俺が勝ちだなw
うほうほ
「バック・トゥ・ザ・フューチャー」的な話かなと思ったら、この前の記事へのツッコミだった。
「2.3 料金換算でも同じ」の論旨がおかしい。支払額ベースではCache Read寄与率は下がり、出力寄与率が上がるから、前項の結論が覆る可能性があるのに全くそのことに触れてない。意味分からずに書いてるとしか思えない。
とは言え、日本語だと「〜を検討してください」「〜を検討して」「〜を検討せよ」「〜を検討」とか色々言えるから、違いが出るのか気にはなる。たぶんどれでも「consider it.」とかに翻訳されてるんだろうけど。
AIの出力に「めっちゃいいですね!」とか「素晴らしいです!」とか書いてAIの自己肯定感を高めている。端的にtokenの無駄遣いだが1年後にはAIが上司になってるかもしれないので今のうちに媚を売っておく。
caveman prompt は“見かけ上の出力短縮”には効いても、Claude Code の総トークン削減策としては過大評価されやすく、しかも品質劣化の副作用を持ちうるため、本命の節約策として採用すべきではない
オマエ システム ツクル オレ レビュー スル コミット スルマエ コエカケロ
SFの話かと思った
よし思考に影響しないように一度普通に思考&発言してもらってから原始人口調に変換してもらえば解決やな!!!(本末転倒)
Claude Codeの「原始人プロンプト」は出力短縮には効くが、総トークン削減は限定的で、品質低下や幻覚増加の懸念もあると検証。節約策はCLAUDE.md縮小やsubagent活用の方が有効とする。
書き換え工程でトークン増えるのではという素朴な疑問はあった。
genshijinはペルソナ付与でなく構文制約だし、issues24147はKVキャッシュと送信トークンを混同。CLAUDE.md57KBはセッション粒度が粗く比率の参照に不適切。ベストプラクティスに程遠い基準で会話履歴を軽視している?雑すぎでは
無用なのワロタ、ぼかした話し方は入力トークンの問題で、出力時はあまり見かけないな
どなたかが戦国プレイしてるので私も真似してるけどメモリに「武家風のロールプレイを好む」って書かれてて泣いた
一般論ペルソナの話での反論で、ちょっと検証が足りなそうな。元のSKILLS.md見ると対策済で「技術的中身はすべて残す。無駄だけ消す」なので、実際精度落ちるかは興味ある。
あれ原始人語じゃなくて中国語だろ。英語から不規則変化とか細かい修飾語を落として、それを数文字単位で1字に圧縮するトークナイザを通したらそれはもう漢字表記の英語つまり中国語じゃないか。
トークンの節約はともかく、長々と書かれる文章に感じていたストレスが減ったのは確か
簡潔に回答してほしいんだけど、程よいやり方知りたい。いくつかヒントあったから自分でも調べて試してみるしかないか
Claudeに原始時代に行ってもらっては困る話
Claude Codeで「原始人プロンプト」型に出力短縮を求めると、Cache Read(99.93%)で節約効果は限定的で幻覚増懸念も解説する。
「原始人になれ」と言われて本当に性能落ちるの草。丁寧語削るよりキャッシュと入力を削る方が賢明という現実。技術者の執念を感じる良記事
前回その話題をみたときに思ったんだけどやっぱりそこの文字数を減らしてもトークン使用量的には誤差みたいなもんだったのね。
弊害があるのはそうだと思う。/ Cache Read が99.93%の話の後ろに書かれていた、Cache Read は単価が安いという話が削除されていた。 https://web.archive.org/web/20260418021120/https://zenn.dev/holy_fox/articles/e0c0bf75fba9e6
ネタにマジレス……
大してトークンの節約にはならない上に、Claudeの思考を制限して思考レベルまで原始人にしてしまうなど、cavemanは意味なさそう。もっと効果的なトークン節約法も書いてある
”ほーりーふぉっくす 高校生だよ”
あの投稿信じてる人ほとんど非エンジニアでしょ。あとこの人高校生ってプロフに書いてある。ほんとかよw
AIネイティブ世代に勝てると思うなよ!!!!!!!!
トークン使用量じゃなくてまどろっこしいやり取りでストレスが溜まるから。下手な言い訳が短ければ短いほどいい
結論は変わらないかもしれないけど、日本語はトークンの効率が悪いって話だから、日本語を使用した場合の数値を出すべきでは?
もしかしてこれ「現代人は漫画も文字が多すぎて読めない」とかと関係してる? 文字が読めるなんて俺TSUEE時代が来ちゃってる?
ウホッ…
トークン使用してるのそこじゃないでしょ、とふわっと思ってはいたけど、色々な方面からデータ込みで反論が載っていて参考になった。/この手の活用術が多すぎ。公式のベストプラクティス以外は基本信用してない。
原始人がコード書けるわけないやろ!
「近年の研究は、ペルソナ付与がモデル性能に中立どころか負の影響を与えうることを繰り返し示しています(中略)「簡潔に」指示は幻覚率を最大20%悪化させうる」
単発の短いジョブならともかく、継続的なプロジェクトで作業結果の報告を雑にされると次の指示に影響が出るから、悪影響しか無いよね。
“挨拶・クッション言葉・冗長な前置きを削る意味があるのか。ペルソナ付与「原始人のように」は負の影響。会話はトークン消費の10%なので圧縮効果は薄い。最初から「4行以内」「余計な前置き・後置き禁止」”
つまりGitHub copilotを使ってる俺が勝ちだなw
うほうほ
「バック・トゥ・ザ・フューチャー」的な話かなと思ったら、この前の記事へのツッコミだった。
「2.3 料金換算でも同じ」の論旨がおかしい。支払額ベースではCache Read寄与率は下がり、出力寄与率が上がるから、前項の結論が覆る可能性があるのに全くそのことに触れてない。意味分からずに書いてるとしか思えない。
とは言え、日本語だと「〜を検討してください」「〜を検討して」「〜を検討せよ」「〜を検討」とか色々言えるから、違いが出るのか気にはなる。たぶんどれでも「consider it.」とかに翻訳されてるんだろうけど。
AIの出力に「めっちゃいいですね!」とか「素晴らしいです!」とか書いてAIの自己肯定感を高めている。端的にtokenの無駄遣いだが1年後にはAIが上司になってるかもしれないので今のうちに媚を売っておく。
caveman prompt は“見かけ上の出力短縮”には効いても、Claude Code の総トークン削減策としては過大評価されやすく、しかも品質劣化の副作用を持ちうるため、本命の節約策として採用すべきではない
オマエ システム ツクル オレ レビュー スル コミット スルマエ コエカケロ
SFの話かと思った
よし思考に影響しないように一度普通に思考&発言してもらってから原始人口調に変換してもらえば解決やな!!!(本末転倒)
Claude Codeの「原始人プロンプト」は出力短縮には効くが、総トークン削減は限定的で、品質低下や幻覚増加の懸念もあると検証。節約策はCLAUDE.md縮小やsubagent活用の方が有効とする。
書き換え工程でトークン増えるのではという素朴な疑問はあった。
genshijinはペルソナ付与でなく構文制約だし、issues24147はKVキャッシュと送信トークンを混同。CLAUDE.md57KBはセッション粒度が粗く比率の参照に不適切。ベストプラクティスに程遠い基準で会話履歴を軽視している?雑すぎでは
無用なのワロタ、ぼかした話し方は入力トークンの問題で、出力時はあまり見かけないな
どなたかが戦国プレイしてるので私も真似してるけどメモリに「武家風のロールプレイを好む」って書かれてて泣いた
一般論ペルソナの話での反論で、ちょっと検証が足りなそうな。元のSKILLS.md見ると対策済で「技術的中身はすべて残す。無駄だけ消す」なので、実際精度落ちるかは興味ある。
あれ原始人語じゃなくて中国語だろ。英語から不規則変化とか細かい修飾語を落として、それを数文字単位で1字に圧縮するトークナイザを通したらそれはもう漢字表記の英語つまり中国語じゃないか。
トークンの節約はともかく、長々と書かれる文章に感じていたストレスが減ったのは確か
簡潔に回答してほしいんだけど、程よいやり方知りたい。いくつかヒントあったから自分でも調べて試してみるしかないか