model routing
智能模型分配
proto.type 检测你配置的提供商,并自动将每个专家分配给最适合其角色的可用模型。任何提供商,任何设置。它都能适应。
providers
每个提供商。智能路由。
Anthropic、OpenAI、Google、xAI、Kimi、DeepSeek、Qwen、MiniMax、Hugging Face、OpenRouter、本地模型。proto.type 自动将每个专家分配给最适合其角色的可用模型 —— 自动完成。
monitoring
流、思维与 MCP 视图
实时观看专家编写。看到推理链形成。对于复杂项目——观看专家使用他们构建的自定义 MCP 服务器来查看他们正在构建的软件内部。
token intelligence
上下文分层与缓存
每位专家只接收其角色需要的上下文。任务对象在运行开始时缓存。提示缓存将 Hotaru 的成本降低多达 80% 在长时间运行中。
transparency
每个 token 都有记录
每次调用记录输入 tokens、输出 tokens、缓存 tokens 和估计成本。每场晨报中都有按专家的完整成本细分。没有意外。
skill library
由 gstack 提供支持
专家借鉴gstack —— 一个精心策划的工程最佳实践库。技能在辩论中被引用,与任务对象具有同等权重。
local & open-weight
气隙、本地与 Hugging Face
Ollama、LM Studio、任何 OpenAI 兼容端点,以及整个 Hugging Face 模型生态系统包括私有微调端点。在每个层级都可用 —— 如果你有硬件,开始构建吧。