背景与目标
技术研究 人工智能 LLM
oh-my-opencode 是一个高度集成的 OpenCode 插件系统,提供了多 Agent 编排能力。该系统内置了 11+ 个专业 Agent,每个 Agent 都被赋予了特定的角色和职责。然而,这些 Agent 的模型选择逻辑和特性匹配原则并不直观——用户很难理解: 1. 为什么 Sisyphus 使用 Claude Opus 4.5 而不是 GPT...
1.1 问题陈述
oh-my-opencode 是一个高度集成的 OpenCode 插件系统,提供了多 Agent 编排能力。该系统内置了 11+ 个专业 Agent,每个 Agent 都被赋予了特定的角色和职责。然而,这些 Agent 的模型选择逻辑和特性匹配原则并不直观——用户很难理解:
- 为什么 Sisyphus 使用 Claude Opus 4.5 而不是 GPT-5.2?
- Librarian 为什么选择免费模型 GLM-4.7?
- 如果需要替换某个 Agent 的模型,应该基于什么标准?
当前痛点
- 模型选择不透明:用户只能看到默认配置,不理解背后的选择逻辑
- 替代方案缺失:当默认模型不可用时,没有明确的备选方案指南
- 成本效益不清晰:EXPENSIVE、CHEAP、FREE 的成本标签缺乏量化标准
- 能力匹配模糊:Agent 角色与模型特性的对应关系未被系统化阐述
1.2 约束条件
技术约束
| 约束类型 | 具体限制 | 影响 |
|---|---|---|
| API 兼容性 | 不同模型支持不同的功能(tool calling、attachments 等) | 不能简单替换为任何模型 |
| 成本差异 | 模型价格差异可达 100 倍以上 | 需要权衡质量与成本 |
| 上下文窗口 | 从 8K 到 2M tokens 不等 | 影响代码库分析能力 |
| 延迟要求 | 实时交互 vs 后台任务有不同要求 | 影响用户体验 |
业务约束
- 可靠性要求:代码编辑类 Agent 需要高准确性
- 成本控制:后台探索类 Agent 可以使用低成本模型
- 多模态需求:部分 Agent 需要图像/文档理解能力
1.3 成功指标
本研究的成功标准:
- 完整性:覆盖 oh-my-opencode 所有 11 个内置 Agent 的模型特性分析
- 可操作性:每个 Agent 提供至少 2-3 个可行的替代模型推荐
- 决策框架:建立清晰的模型选择决策树
- 成本量化:提供具体的成本对比数据
验收标准
- 分析每个 Agent 的核心能力需求
- 解释当前模型选择的原因
- 提供替代模型推荐及迁移指南
- 建立特性-模型匹配矩阵
参考资料
- oh-my-opencode GitHub - 项目源代码
- OpenCode Agent Configuration - OpenCode Agent 配置文档
- LLM Comparison 2026 - 2026 年 LLM 选型指南