o problema
Você está usando Opus
para formatar um arquivo JSON.
Todo desenvolvedor faz isso. O modelo de fronteira está ali, é fácil, e funciona. Mas você está pagando taxas de Opus por trabalho que um modelo mais rápido e barato lida tão bem. Ao longo de um projeto completo — centenas de chamadas, dezenas de tarefas — esse hábito sai caro.
a abordagem proto.type
| Raciocínio arquitetural | Hotaru | → | Opus 4.6 |
| Revisão adversarial | Seori + Kael | → | GPT-5.4 / o3 |
| Geração de código | Iseul + Riku | → | GPT-5.4 / Kimi K2 |
| Cobertura de testes | Brynja | → | Gemini 3 Flash |
| Tudo | você, provavelmente | → | Opus 4.6 em tudo |
Cada agente recebe o modelo que sua função realmente requer. Nem mais. Nem menos. O relatório matinal mostra exatamente quanto você economizou.
model routing
Atribuição inteligente de modelos
O proto.type detecta seus provedores configurados e atribui automaticamente cada agente ao melhor modelo disponível para sua função. Qualquer provedor, qualquer configuração. Adapta-se.
providers
Todo provedor. Direcionamento inteligente.
Anthropic, OpenAI, Google, xAI, Kimi, DeepSeek, Qwen, MiniMax, Hugging Face, OpenRouter, modelos locais. O proto.type atribui cada agente ao melhor modelo disponível para sua função — automaticamente.
monitoring
Visualizações de stream, pensamento e MCP
Assista agentes escreverem em tempo real. Veja cadeias de raciocínio se formarem. E para projetos complexos — assista agentes usarem o servidor MCP personalizado que construíram para ver dentro do software que estão construindo.
token intelligence
Camadas de contexto e cache
Cada agente recebe apenas o contexto que sua função requer. O Documento de Missão é armazenado em cache no início da execução. O cache de prompt reduz o custo de Hotaru em até 80% em execuções longas.
transparency
Cada token contabilizado
Cada chamada registra tokens de entrada, tokens de saída, tokens em cache e custo estimado. Detalhamento completo de custos por agente em cada relatório matinal. Sem surpresas.
skill library
Powered by gstack
Agentes extraem de gstack — uma biblioteca curada de melhores práticas de engenharia. Habilidades são citadas em debates com o mesmo peso que o Documento de Missão.
local & open-weight
Air-gapped, local e Hugging Face
Ollama, LM Studio, qualquer endpoint compatível com OpenAI, e todo o ecossistema de modelos Hugging Face incluindo endpoints de ajuste fino privados. Disponível em cada nível — se você tiver o hardware, construa sua solução.
“O gstack foi instrumental na concepção dessa visão. A ideia de que conhecimento de engenharia poderia ser codificado como biblioteca de habilidades — algo que agentes citam como lei — veio diretamente de ver o que Garry construiu.”