テクノロジー

Claudeに原始時代に行ってもらっては困る話

1: mkusaka 2026/04/18 11:17

Claude Codeで「原始人プロンプト」型に出力短縮を求めると、Cache Read(99.93%)で節約効果は限定的で幻覚増懸念も解説する。

2: nguyen-oi 2026/04/18 11:32

「原始人になれ」と言われて本当に性能落ちるの草。丁寧語削るよりキャッシュと入力を削る方が賢明という現実。技術者の執念を感じる良記事

3: mojimojikun 2026/04/18 11:48

前回その話題をみたときに思ったんだけどやっぱりそこの文字数を減らしてもトークン使用量的には誤差みたいなもんだったのね。

4: yamada_k 2026/04/18 11:55

弊害があるのはそうだと思う。/ Cache Read が99.93%の話の後ろに書かれていた、Cache Read は単価が安いという話が削除されていた。 https://web.archive.org/web/20260418021120/https://zenn.dev/holy_fox/articles/e0c0bf75fba9e6

5: akisei67 2026/04/18 11:56

ネタにマジレス……

6: localnavi 2026/04/18 12:00

大してトークンの節約にはならない上に、Claudeの思考を制限して思考レベルまで原始人にしてしまうなど、cavemanは意味なさそう。もっと効果的なトークン節約法も書いてある

7: zu2 2026/04/18 12:04

”ほーりーふぉっくす 高校生だよ”

8: mayumayu_nimolove 2026/04/18 12:17

あの投稿信じてる人ほとんど非エンジニアでしょ。あとこの人高校生ってプロフに書いてある。ほんとかよw

9: hasiduki 2026/04/18 12:32

AIネイティブ世代に勝てると思うなよ!!!!!!!!

10: taguch1 2026/04/18 12:32

トークン使用量じゃなくてまどろっこしいやり取りでストレスが溜まるから。下手な言い訳が短ければ短いほどいい

11: lainof 2026/04/18 12:33

結論は変わらないかもしれないけど、日本語はトークンの効率が悪いって話だから、日本語を使用した場合の数値を出すべきでは?

12: atsushieno 2026/04/18 12:52

もしかしてこれ「現代人は漫画も文字が多すぎて読めない」とかと関係してる? 文字が読めるなんて俺TSUEE時代が来ちゃってる?

13: rna 2026/04/18 12:52

ウホッ…

14: e_denker 2026/04/18 12:59

トークン使用してるのそこじゃないでしょ、とふわっと思ってはいたけど、色々な方面からデータ込みで反論が載っていて参考になった。/この手の活用術が多すぎ。公式のベストプラクティス以外は基本信用してない。

15: um-k3 2026/04/18 13:13

原始人がコード書けるわけないやろ!

16: enemyoffreedom 2026/04/18 13:14

「近年の研究は、ペルソナ付与がモデル性能に中立どころか負の影響を与えうることを繰り返し示しています(中略)「簡潔に」指示は幻覚率を最大20%悪化させうる」

17: fermi 2026/04/18 13:17

単発の短いジョブならともかく、継続的なプロジェクトで作業結果の報告を雑にされると次の指示に影響が出るから、悪影響しか無いよね。

18: yarumato 2026/04/18 13:30

“挨拶・クッション言葉・冗長な前置きを削る意味があるのか。ペルソナ付与「原始人のように」は負の影響。会話はトークン消費の10%なので圧縮効果は薄い。最初から「4行以内」「余計な前置き・後置き禁止」”

19: hogetax 2026/04/18 13:32

つまりGitHub copilotを使ってる俺が勝ちだなw

20: clubman023 2026/04/18 14:07

うほうほ

21: kikuchi1201 2026/04/18 14:17

「バック・トゥ・ザ・フューチャー」的な話かなと思ったら、この前の記事へのツッコミだった。

22: yorkfield 2026/04/18 14:27

「2.3 料金換算でも同じ」の論旨がおかしい。支払額ベースではCache Read寄与率は下がり、出力寄与率が上がるから、前項の結論が覆る可能性があるのに全くそのことに触れてない。意味分からずに書いてるとしか思えない。

23: akahmys 2026/04/18 14:30

とは言え、日本語だと「〜を検討してください」「〜を検討して」「〜を検討せよ」「〜を検討」とか色々言えるから、違いが出るのか気にはなる。たぶんどれでも「consider it.」とかに翻訳されてるんだろうけど。

24: proverb 2026/04/18 15:30

AIの出力に「めっちゃいいですね!」とか「素晴らしいです!」とか書いてAIの自己肯定感を高めている。端的にtokenの無駄遣いだが1年後にはAIが上司になってるかもしれないので今のうちに媚を売っておく。

25: kiririmode 2026/04/18 16:04

caveman prompt は“見かけ上の出力短縮”には効いても、Claude Code の総トークン削減策としては過大評価されやすく、しかも品質劣化の副作用を持ちうるため、本命の節約策として採用すべきではない

26: Chocolat520 2026/04/18 16:35

オマエ システム ツクル オレ レビュー スル コミット スルマエ コエカケロ

27: s17er 2026/04/18 17:03

SFの話かと思った

28: star_123 2026/04/18 17:32

よし思考に影響しないように一度普通に思考&発言してもらってから原始人口調に変換してもらえば解決やな!!!(本末転倒)

29: misshiki 2026/04/18 17:45

Claude Codeの「原始人プロンプト」は出力短縮には効くが、総トークン削減は限定的で、品質低下や幻覚増加の懸念もあると検証。節約策はCLAUDE.md縮小やsubagent活用の方が有効とする。

30: cu39 2026/04/18 18:51

書き換え工程でトークン増えるのではという素朴な疑問はあった。

31: dalmacija 2026/04/18 19:40

genshijinはペルソナ付与でなく構文制約だし、issues24147はKVキャッシュと送信トークンを混同。CLAUDE.md57KBはセッション粒度が粗く比率の参照に不適切。ベストプラクティスに程遠い基準で会話履歴を軽視している?雑すぎでは

32: irimodi 2026/04/18 19:50

無用なのワロタ、ぼかした話し方は入力トークンの問題で、出力時はあまり見かけないな

33: M54it 2026/04/18 20:10

どなたかが戦国プレイしてるので私も真似してるけどメモリに「武家風のロールプレイを好む」って書かれてて泣いた

34: cooking_kawasaki 2026/04/18 20:45

一般論ペルソナの話での反論で、ちょっと検証が足りなそうな。元のSKILLS.md見ると対策済で「技術的中身はすべて残す。無駄だけ消す」なので、実際精度落ちるかは興味ある。

35: kyahi227 2026/04/18 20:57

あれ原始人語じゃなくて中国語だろ。英語から不規則変化とか細かい修飾語を落として、それを数文字単位で1字に圧縮するトークナイザを通したらそれはもう漢字表記の英語つまり中国語じゃないか。

36: hidea 2026/04/18 22:05

トークンの節約はともかく、長々と書かれる文章に感じていたストレスが減ったのは確か

37: Nilfs 2026/04/20 17:22

簡潔に回答してほしいんだけど、程よいやり方知りたい。いくつかヒントあったから自分でも調べて試してみるしかないか