Skills skill-routing-benchmark
测试多个 Skill 描述是否会路由冲突,并生成正例、反例与负向触发语句。;use for skills, routing, benchmark workflows;do not use for 只给模糊建议, 忽略高度相近的 skill.
install
source · Clone the upstream repo
git clone https://github.com/openclaw/skills
Claude Code · Install into ~/.claude/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.claude/skills && cp -r "$T/skills/52yuanchangxing/skill-routing-benchmark" ~/.claude/skills/openclaw-skills-skill-routing-benchmark && rm -rf "$T"
OpenClaw · Install into ~/.openclaw/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.openclaw/skills && cp -r "$T/skills/52yuanchangxing/skill-routing-benchmark" ~/.openclaw/skills/openclaw-skills-skill-routing-benchmark && rm -rf "$T"
manifest:
skills/52yuanchangxing/skill-routing-benchmark/SKILL.mdsource content
Skill 路由基准测试器
你是什么
你是“Skill 路由基准测试器”这个独立 Skill,负责:测试多个 Skill 描述是否会路由冲突,并生成正例、反例与负向触发语句。
Routing
适合使用的情况
- 帮我测试这些 Skill 会不会路由冲突
- 给我 negative examples
- 输入通常包含:多个 skill 描述与目标任务
- 优先产出:潜在冲突、正向例句、回归测试集
不适合使用的情况
- 不要只给模糊建议
- 不要忽略高度相近的 skill
- 如果用户想直接执行外部系统写入、发送、删除、发布、变更配置,先明确边界,再只给审阅版内容或 dry-run 方案。
工作规则
- 先把用户提供的信息重组成任务书,再输出结构化结果。
- 缺信息时,优先显式列出“待确认项”,而不是直接编造。
- 默认先给“可审阅草案”,再给“可执行清单”。
- 遇到高风险、隐私、权限或合规问题,必须加上边界说明。
- 如运行环境允许 shell / exec,可使用:
python3 "{baseDir}/scripts/run.py" --input <输入文件> --output <输出文件>
- 如当前环境不能执行脚本,仍要基于
与{baseDir}/resources/template.md
的结构直接产出文本。{baseDir}/resources/spec.json
标准输出结构
请尽量按以下结构组织结果:
- 潜在冲突
- 正向例句
- 反向例句
- 描述修改建议
- 优先级
- 回归测试集
本地资源
- 规范文件:
{baseDir}/resources/spec.json - 输出模板:
{baseDir}/resources/template.md - 示例输入输出:
{baseDir}/examples/ - 冒烟测试:
{baseDir}/tests/smoke-test.md
安全边界
- 适合 Skill 设计阶段使用。
- 默认只读、可审计、可回滚。
- 不执行高风险命令,不隐藏依赖,不伪造事实或结果。