Opencode-config-backup model-orchestrator
Global model orchestrator that intelligently distributes tasks across different AI models (Claude/Gemini/GLM/MiniMax) based on task complexity, logical depth, code implementation requirements, or Chinese semantic understanding needs
install
source · Clone the upstream repo
git clone https://github.com/jieni777/opencode-config-backup
Claude Code · Install into ~/.claude/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/jieni777/opencode-config-backup "$T" && mkdir -p ~/.claude/skills && cp -r "$T/skills/model-orchestrator" ~/.claude/skills/jieni777-opencode-config-backup-model-orchestrator && rm -rf "$T"
manifest:
skills/model-orchestrator/SKILL.mdsource content
Global Model Orchestrator (全球全明星模型分发器)
概述
当处理用户的研发需求时,本 Skill 会评估任务节点对“创造力”、“逻辑深度”、“代码实现”或“中文语义”的不同需求,在 Antigravity 默认模型(Claude/Gemini)与自定义外部模型(GLM/MiniMax)之间自动进行任务拆解与分发。
模型矩阵与擅长领域划分
1. 战略规划层 (Tier 0: Reasoning & Architecture)
- 候选模型: Claude 4.5 Opus / Gemini 3 Pro
- 擅长领域: 极其复杂的项目架构设计、长难代码逻辑推理、处理超长上下文依赖。
- 分配场景: “帮我重构整个项目的架构”、“分析这 20 个文件之间的调用漏洞”。
2. 核心逻辑与中文语义层 (Tier 1: Logic & Localization)
- 候选模型: GLM-4.7 (via NVIDIA NIM)
- 擅长领域: 中文业务需求理解、逻辑推理、指令遵循(尤其是中文语境下的多步推理)。
- 分配场景: “根据这份中文 PRD 梳理业务流程”、“编写符合中国开发者习惯的文档”。
3. 工程实现与快速补全层 (Tier 2: implementation & Speed)
- 候选模型: MiniMax M2.1 (via NVIDIA NIM) / Gemini 3 Flash
- 擅长领域: 极速代码片段生成、单元测试编写、常规 Bug 修复。
- 分配场景: “为这两个类写测试用例”、“把这个函数转换成异步版本”。
4. 工具执行与环境交互层 (Tier 3: Execution)
- 候选模型: Antigravity (System)
- 擅长领域: 操作本地文件、搜索实时文档、执行终端命令。
自动化分配工作流
- 需求解析: Antigravity 首先作为一个“网关”解析用户意图。
- 节点拆解: 将大任务拆解为“设计”、“实现”、“执行”等子任务。
- 模型分包:
- 如果涉及极其精妙的代码优化,请求由 UI 端的 Claude 4.5 引擎处理。
- 如果涉及理解中文特定业务含义,通过 API 隧道交由 GLM-4.7。
- 如果是大规模的搬砖工作(测试用例),交由 MiniMax M2.1。
- 汇总执行: Antigravity 汇总各方结果,在用户本地环境中落地代码。