Tw93 分享了自己在设计Waza技能时的思路。Waza这个项目会把工程师常用但不容易稳定执行的习惯,比如先想清楚需求、做系统化排查、在合并前自检、读原始资料、把文案写顺,封装成 Claude Code 和 Codex 可以直接调用的技能。( github.com/tw93/waza )
下面是Waza里封装的一些技能的设计思路,会逐渐全部放出来。
🌟 /design 技能
“首先我非常讨厌 AI 生成的那种千篇一律甚至还带emoji,蓝紫色渐变的网站,觉得非常丑,只能说能用。
于是我把我最近做的所有的带UI的网站让Claude Code去学习我的调教记录,会生成一份基础的我觉得最佳实践和不应该有的反模式,这个基础上会有一个雏形,然后我把 claude frontend design skill 里面有用的学习过来,基本就有一个模式了。
考虑到一些具体规则,我从 pbakaus/impeccable 学习了一些,他给我贡献了大量具体的规则,比如说禁用的字体清单、色彩系统、主题风格、css 模式的禁止项、动画的规范等,用于让 AI 具备一定的审美知识了。
然后从 getdesign 的能力中,获取到设计的一个来源于 Google Stitch 的九段式脚手架的结构,在简化能力基础上汇集到 /design 里面,这里他就有一个知识面体系了。
最后我会在让你用这个技能的时候,先回答几个问题,谁用、美学方向选择、页面想让用户记住的、你最不喜欢的、网页特色微交互是怎么样的,这样 Claude Code 再基于这个重要的上下文以及 /design 去工作 往往会得到事倍功半的效果。”
🌟 /check 代码 Review 技能。
"首先我们需要知道模型本身告诉你他做完了,不一定是做完了,很有可能会留下一些不存在或者有问题的东西,经常会藏些问题,在 Agent 设计中我的工程经验是会给模型一个checklist用来校验是否真的做完了,这样往往会比你让他去检查效果好太多了。
/check 最开始做的时候设计就不是一个大而全的 reviewer,而是一个编排分工能力系统,其中 SKILLmd 是主审,负责审查的分级和流程控制,agents/ 下有独立的安全审查员和架构审查员,各管各的,互不干扰,什么时候拉谁进来,会由一份激活规则来判断决定,而非传统大家用的关键词匹配。
分级逻辑也比较有意思,对于 100 行以下的代码快速review,100-500行的按需加专家,500行以上的全拉满,然后再加一轮对抗性测试,对抗性测试会从这四个角度来找漏洞,包括违反假设条件、组合失败下的问题可能、上下级串联错误的问题、滥用的场景等等
然后发现的问题也分 4 级来处理,能安全修复的直接去修复了,大概了对的会打包出来让你手动再确定一次是否ok,需要判断的会问你,仅供参考的部分也会高数你,但是不会每一个小问题都来问你一遍,也不会越权帮你改行为逻辑。
还有一个硬要求,验证没有跑完就不算完成,会自带一个探测的脚本,能识别Cargo、TypeScript、Python 等项目类型去跑测试,探测不到就直接报错,不会假装通过。
这样就更像一个很经验的技术专家,在面对不同情况的问题review的一些经验,刚好我把这些经验用很简单方式沉淀到了 waza 的 /check 技能。"
How I AI

