花 · 桜 · 春
proto.type · technology

硬核基础设施。
透明成本。

自带 API 密钥——或完全在本地模型上运行——或指向 Hugging Face 上的微调模型。proto.type 检测你拥有的内容并智能路由。每个专家花费的每个 token 都出现在你的晨报中。每种设置都有效。

问题
你用 Opus
来格式化 JSON 文件。
每个开发者都这样做。前沿模型就在那里,很简单,而且有效。但你为更快、更便宜的模型处理得一样好的工作支付 Opus 价格。在整个项目中——数百次调用、数十个任务——这个习惯很昂贵。
proto.type 的方法
架构推理 Hotaru Opus 4.6
对抗性审查 Seori + Kael GPT-5.4 / o3
代码生成 Iseul + Riku GPT-5.4 / Kimi K2
测试覆盖率 Brynja Gemini 3 Flash
一切 你,可能 Opus 4.6 用于一切
每个专家获得其角色实际需要的模型。不多不少。晨报向你展示你节省了多少钱。
model routing
智能模型分配
proto.type 检测你配置的提供商,并自动将每个专家分配给最适合其角色的可用模型。任何提供商,任何设置。它都能适应。
providers
每个提供商。智能路由。
Anthropic、OpenAI、Google、xAI、Kimi、DeepSeek、Qwen、MiniMax、Hugging Face、OpenRouter、本地模型。proto.type 自动将每个专家分配给最适合其角色的可用模型 —— 自动完成。
monitoring
流、思维与 MCP 视图
实时观看专家编写。看到推理链形成。对于复杂项目——观看专家使用他们构建的自定义 MCP 服务器来查看他们正在构建的软件内部。
token intelligence
上下文分层与缓存
每位专家只接收其角色需要的上下文。任务对象在运行开始时缓存。提示缓存将 Hotaru 的成本降低多达 80% 在长时间运行中。
transparency
每个 token 都有记录
每次调用记录输入 tokens、输出 tokens、缓存 tokens 和估计成本。每场晨报中都有按专家的完整成本细分。没有意外。
skill library
由 gstack 提供支持
专家借鉴gstack —— 一个精心策划的工程最佳实践库。技能在辩论中被引用,与任务对象具有同等权重。
local & open-weight
气隙、本地与 Hugging Face
Ollama、LM Studio、任何 OpenAI 兼容端点,以及整个 Hugging Face 模型生态系统包括私有微调端点。在每个层级都可用 —— 如果你有硬件,开始构建吧。
gstack 对构思这一愿景起到了重要作用。工程知识可以编码为技能库——专家像法律一样引用的东西——这个想法直接来自于看到 Garry 所构建的。
Garry Tan
总裁兼 CEO,Y Combinator · gstack 创建者
github · gstack ↗
← 返回主页
创建者 asha.software · 有意识的软件 · 以爱和尊重用户隐私的方式构建
花 · 桜 · 春
语言