проблема
Вы используете Opus
для форматирования JSON-файла.
Каждый разработчик так делает. Фронтир-модель прямо здесь, это легко, и это работает. Но Вы платите по тарифам Opus за работу, которую более быстрая, дешевая модель выполняет так же хорошо. На полном проекте — сотни вызовов, десятки задач — эта привычка дорога.
подход proto.type
| Архитектурное рассуждение | Hotaru | → | Opus 4.6 |
| Противоборствующий обзор | Seori + Kael | → | GPT-5.4 / o3 |
| Генерация кода | Iseul + Riku | → | GPT-5.4 / Kimi K2 |
| Покрытие тестами | Brynja | → | Gemini 3 Flash |
| Всё | Вы, наверное | → | Opus 4.6 на всём |
Каждый агент получает модель, которую его роль реально требует. Не больше. Не меньше. Утренний отчёт показывает точно сколько Вы сэкономили.
model routing
Интеллектуальное назначение моделей
proto.type обнаруживает Ваши настроенные провайдеры и автоматически назначает каждого агента к лучшей доступной модели для их роли. Любой провайдер, любая конфигурация. Адаптируется.
providers
Каждый провайдер. Интеллектуально маршрутизирован.
Anthropic, OpenAI, Google, xAI, Kimi, DeepSeek, Qwen, MiniMax, Hugging Face, OpenRouter, локальные модели. proto.type назначает каждого агента к лучшей доступной модели для их роли — автоматически.
monitoring
Виды потока, мышления и MCP
Смотрите как агенты пишут в реальном времени. Видите как формируются цепочки рассуждений. И для сложных проектов — смотрите как агенты используют кастомный MCP-сервер, который они построили, чтобы видеть внутрь программного обеспечения которое они создают.
token intelligence
Уровневая контекстизация и кэширование
Каждый агент получает только контекст, который требует его роль. Объект Миссии кэшируется при старте. Кэширование промптов сокращает затраты Hotaru до 80% на длительных запусках.
transparency
Каждый токен учтён
Каждый вызов логирует входные токены, выходные токены, кэшированные токены и оценочную стоимость. Полный разбор затрат по агентам в каждом утреннем отчёте. Без сюрпризов.
skill library
На базе gstack
Агенты черпают из gstack — курируемой библиотеки лучших практик инженерии. Навыки цитируются в дебатах с тем же весом что и Объект Миссии.
local & open-weight
Air-gapped, локальный и Hugging Face
Ollama, LM Studio, любая совместимая с OpenAI конечная точка, и вся экосистема моделей Hugging Face включая приватные дообученные конечные точки. Доступно на любом уровне — если у Вас есть железо, стройте своё.
“gstack был инструментальным в разработке этого видения. Идея что инженерные знания могут быть закодированы как библиотека навыков — что-то что агенты цитируют как закон — пришла напрямую от видения того, что построил Garry.”