Logo
热心市民王先生

背景与目标

技术研究 人工智能 LLM

oh-my-opencode 是一个高度集成的 OpenCode 插件系统,提供了多 Agent 编排能力。该系统内置了 11+ 个专业 Agent,每个 Agent 都被赋予了特定的角色和职责。然而,这些 Agent 的模型选择逻辑和特性匹配原则并不直观——用户很难理解: 1. 为什么 Sisyphus 使用 Claude Opus 4.5 而不是 GPT...

1.1 问题陈述

oh-my-opencode 是一个高度集成的 OpenCode 插件系统,提供了多 Agent 编排能力。该系统内置了 11+ 个专业 Agent,每个 Agent 都被赋予了特定的角色和职责。然而,这些 Agent 的模型选择逻辑特性匹配原则并不直观——用户很难理解:

  1. 为什么 Sisyphus 使用 Claude Opus 4.5 而不是 GPT-5.2?
  2. Librarian 为什么选择免费模型 GLM-4.7?
  3. 如果需要替换某个 Agent 的模型,应该基于什么标准?

当前痛点

  • 模型选择不透明:用户只能看到默认配置,不理解背后的选择逻辑
  • 替代方案缺失:当默认模型不可用时,没有明确的备选方案指南
  • 成本效益不清晰:EXPENSIVE、CHEAP、FREE 的成本标签缺乏量化标准
  • 能力匹配模糊:Agent 角色与模型特性的对应关系未被系统化阐述

1.2 约束条件

技术约束

约束类型具体限制影响
API 兼容性不同模型支持不同的功能(tool calling、attachments 等)不能简单替换为任何模型
成本差异模型价格差异可达 100 倍以上需要权衡质量与成本
上下文窗口从 8K 到 2M tokens 不等影响代码库分析能力
延迟要求实时交互 vs 后台任务有不同要求影响用户体验

业务约束

  • 可靠性要求:代码编辑类 Agent 需要高准确性
  • 成本控制:后台探索类 Agent 可以使用低成本模型
  • 多模态需求:部分 Agent 需要图像/文档理解能力

1.3 成功指标

本研究的成功标准:

  1. 完整性:覆盖 oh-my-opencode 所有 11 个内置 Agent 的模型特性分析
  2. 可操作性:每个 Agent 提供至少 2-3 个可行的替代模型推荐
  3. 决策框架:建立清晰的模型选择决策树
  4. 成本量化:提供具体的成本对比数据

验收标准

  • 分析每个 Agent 的核心能力需求
  • 解释当前模型选择的原因
  • 提供替代模型推荐及迁移指南
  • 建立特性-模型匹配矩阵

参考资料