Claude Codeの実装後に /self-review で3種エージェント並列レビューし、/fix-review-commentsが妥当指摘だけ修正する
AIが生成した微妙なコードをAIに直させる泥臭い自動化。でもこれが今の最適解なんだろうな
①AIがコードを書いて、②AIがコードレビューして、③AIがコードレビューの妥当性を判定して、④AIがコードを修正する……まとめるとこういうこと?これで無理なら、③の後に、コードレビューの妥当性判定が妥当かを判
人間がレビューするのはLLMのレビューが通ったコードになる。良さそう。
コードの品質とは。コードは空気と同じになった言われてるけど、空気の品質とは、もう嗜好品で好きな人は好きなだけで、必須ではなくなりつつある。
もしかして、AIってこれからエヴァンゲリオンに出てきた合議制で決めるスパコン(MAGIシステム)みたいになっていくの?
セルフレビュー
この辺が当面の秘伝のレシピになるのかなぁ...
チェックと修正の仕方もAIに教えて実質ダブルチェック体制
「毎回自分で指摘しまくる」どのくらいの期間だったのか気になる。自分は3回くらい同じ指摘をしていたらCLAUDE.mdに書いてそれでおしまいかな。それも滅多に無い。実は事前のディレクションに問題があるとかその辺?
メモ
同様のセルフレビューを私もやっているのですがとても良いです。当面は必要そうです。AIによるダブルチェック。
ログを添付してバグではないかと聞いたら色々推測を並べたりPythonで同じロジックを実装して動作確認したりしながら10分長考した結果あなたの勘違いですと断定されてClaudeパイセンすげぇやと思ったのが数日前
こんなこと繰り返すのがエンジニアリングなのかって。いつまで続くんだろ
AIレビューは良いし、やるべきだが、初めの指示が悪いのではないかという疑惑。または好みの問題で本質的ではない所が気になるか。最近はプラン時点で頑張るとそんなに後工程はしんどく無いイメージだけどなぁ。
これはありがたい。試させていただこう
「コンパイラが生成する機械語の品質が微妙」なんて言わない。今後は誰も気にしなくなる。
マギシステム・・・
そのうちClaude Codeの標準仕様になるといいな
やったことあるんだけど、指示の仕方が悪かったのか、方向性の違う設計が合体した悪魔のコードになったことがあって避けてた。でも今なら一貫性を持たせられるのかも。
エヴァのMAGIシステムは正しかった
こういうのをしなくていいようにするためのハーネスや仕様駆動になるのかな?LLMの進化とClaudeCodeのアップデートで不要になりがちで難しい
コードの品質を気にしない"バイブコーディング"と異なりプロダクションコードでのAI利用では一定の品質の確保が必要で最終的には人間によるレビューに頼るところがまだ大きい 多分この辺りまだ進化の余地はありますね
で、出力された物の品質が上がったとは一言も書いてないこの文章は何なんでしょうかね。単に AI が「品質を上げました」と言ったのを鵜呑みにしてる記事なんだけど。
Claude Codeの低品質出力対策に、3つのAIエージェントが並列レビュー→指摘精査→修正の/self-reviewを構築。不要指摘を除外し自動品質向上、人間レビュー負担を大幅削減。
AIによる実装の品質が微妙で毎回自分で指摘しまくる必要があったので、確認前に自動で品質を上げさせるようにした - $shibayu36->blog;
Claude Codeの実装後に /self-review で3種エージェント並列レビューし、/fix-review-commentsが妥当指摘だけ修正する
AIが生成した微妙なコードをAIに直させる泥臭い自動化。でもこれが今の最適解なんだろうな
①AIがコードを書いて、②AIがコードレビューして、③AIがコードレビューの妥当性を判定して、④AIがコードを修正する……まとめるとこういうこと?これで無理なら、③の後に、コードレビューの妥当性判定が妥当かを判
人間がレビューするのはLLMのレビューが通ったコードになる。良さそう。
コードの品質とは。コードは空気と同じになった言われてるけど、空気の品質とは、もう嗜好品で好きな人は好きなだけで、必須ではなくなりつつある。
もしかして、AIってこれからエヴァンゲリオンに出てきた合議制で決めるスパコン(MAGIシステム)みたいになっていくの?
セルフレビュー
この辺が当面の秘伝のレシピになるのかなぁ...
チェックと修正の仕方もAIに教えて実質ダブルチェック体制
「毎回自分で指摘しまくる」どのくらいの期間だったのか気になる。自分は3回くらい同じ指摘をしていたらCLAUDE.mdに書いてそれでおしまいかな。それも滅多に無い。実は事前のディレクションに問題があるとかその辺?
メモ
同様のセルフレビューを私もやっているのですがとても良いです。当面は必要そうです。AIによるダブルチェック。
ログを添付してバグではないかと聞いたら色々推測を並べたりPythonで同じロジックを実装して動作確認したりしながら10分長考した結果あなたの勘違いですと断定されてClaudeパイセンすげぇやと思ったのが数日前
こんなこと繰り返すのがエンジニアリングなのかって。いつまで続くんだろ
AIレビューは良いし、やるべきだが、初めの指示が悪いのではないかという疑惑。または好みの問題で本質的ではない所が気になるか。最近はプラン時点で頑張るとそんなに後工程はしんどく無いイメージだけどなぁ。
これはありがたい。試させていただこう
「コンパイラが生成する機械語の品質が微妙」なんて言わない。今後は誰も気にしなくなる。
マギシステム・・・
そのうちClaude Codeの標準仕様になるといいな
やったことあるんだけど、指示の仕方が悪かったのか、方向性の違う設計が合体した悪魔のコードになったことがあって避けてた。でも今なら一貫性を持たせられるのかも。
エヴァのMAGIシステムは正しかった
こういうのをしなくていいようにするためのハーネスや仕様駆動になるのかな?LLMの進化とClaudeCodeのアップデートで不要になりがちで難しい
コードの品質を気にしない"バイブコーディング"と異なりプロダクションコードでのAI利用では一定の品質の確保が必要で最終的には人間によるレビューに頼るところがまだ大きい 多分この辺りまだ進化の余地はありますね
で、出力された物の品質が上がったとは一言も書いてないこの文章は何なんでしょうかね。単に AI が「品質を上げました」と言ったのを鵜呑みにしてる記事なんだけど。
Claude Codeの低品質出力対策に、3つのAIエージェントが並列レビュー→指摘精査→修正の/self-reviewを構築。不要指摘を除外し自動品質向上、人間レビュー負担を大幅削減。