dangeroisly skip permissionsと似てるけど、テストしてからやれ、確認してからやれ、が違う
人間mcp
「人間に聞くな、自分でやれ」って指示をAIに出すの、主客転倒感あって面白いな。ボトルネックは人間っていう現実
分かるんだけど、その行き着く先はopenclawみたいにしかならないわけでしょ?あとは、ノーチェックでプロダクト作ってもバグったらほぼ全部一人で解析することになるけどそれは経験した上での話ですかね?
思うんだけど何で既存のワークフローツール使わないでコードでやろうとしてるんだ?正確さ求めてるのに本末転倒では。役割分担が今最も現実的なのに。
これは記録
“descriptionに「人間に聞きたくなる瞬間」をトリガーとして書いておけば、Agentがまさに聞こうとした瞬間にスキルがロードされて「いや、自分でやれ」と軌道修正できる。”なるほどスキルをフックみたいに使ってるのか
ワロタw現場猫♪
Claude CodeのSkillでdescriptionに'BEFORE asking'を書き、chrome MCPでスクリーンショット検証やgit push自動化を行いRalph loopと組合せ
技術的に難しいプロダクトを作らせると、AI丸投げだと破綻することがだんだん分かってきて、完璧な指示書を書き上げるより人間がレビューした方が早いなと思っている
AI Agentの本質は、人間が最終責任を持つ中でどう任せるかという話だと思っている。そういう意味では何をやられても自分がケツモチできるということならいくらでも好きにさせれば良い
単にバイパスするだけならhooksでいいのでは?と思ったけどもう少し複雑なロジックが入ってるのね
これまであいまいなまま開発を開始していたレベルでもAIと対話しながらで詳細を詰めてやってるけどそれでも全面的に信頼はできないなぁ。
Skillのdescriptionに「人間に聞こうとする瞬間」をトリガー条件として記述し、エージェント自身に自己検証・自己判断させるべき
Agentワークフローで人間がボトルネックにならないためのSkill設計
dangeroisly skip permissionsと似てるけど、テストしてからやれ、確認してからやれ、が違う
人間mcp
「人間に聞くな、自分でやれ」って指示をAIに出すの、主客転倒感あって面白いな。ボトルネックは人間っていう現実
分かるんだけど、その行き着く先はopenclawみたいにしかならないわけでしょ?あとは、ノーチェックでプロダクト作ってもバグったらほぼ全部一人で解析することになるけどそれは経験した上での話ですかね?
思うんだけど何で既存のワークフローツール使わないでコードでやろうとしてるんだ?正確さ求めてるのに本末転倒では。役割分担が今最も現実的なのに。
これは記録
“descriptionに「人間に聞きたくなる瞬間」をトリガーとして書いておけば、Agentがまさに聞こうとした瞬間にスキルがロードされて「いや、自分でやれ」と軌道修正できる。”なるほどスキルをフックみたいに使ってるのか
ワロタw現場猫♪
Claude CodeのSkillでdescriptionに'BEFORE asking'を書き、chrome MCPでスクリーンショット検証やgit push自動化を行いRalph loopと組合せ
技術的に難しいプロダクトを作らせると、AI丸投げだと破綻することがだんだん分かってきて、完璧な指示書を書き上げるより人間がレビューした方が早いなと思っている
AI Agentの本質は、人間が最終責任を持つ中でどう任せるかという話だと思っている。そういう意味では何をやられても自分がケツモチできるということならいくらでも好きにさせれば良い
単にバイパスするだけならhooksでいいのでは?と思ったけどもう少し複雑なロジックが入ってるのね
これまであいまいなまま開発を開始していたレベルでもAIと対話しながらで詳細を詰めてやってるけどそれでも全面的に信頼はできないなぁ。
Skillのdescriptionに「人間に聞こうとする瞬間」をトリガー条件として記述し、エージェント自身に自己検証・自己判断させるべき