花 · 桜 · 春
proto.type · technology

Infraestrutura séria.
Custos transparentes.

Traga suas próprias chaves de API — ou execute inteiramente em modelos locais — ou aponte para um modelo ajustado no Hugging Face. O proto.type detecta o que você tem e direciona inteligentemente. Cada token gasto por cada agente aparece no relatório matinal. Qualquer configuração funciona.

o problema
Você está usando Opus
para formatar um arquivo JSON.
Todo desenvolvedor faz isso. O modelo de fronteira está ali, é fácil, e funciona. Mas você está pagando taxas de Opus por trabalho que um modelo mais rápido e barato lida tão bem. Ao longo de um projeto completo — centenas de chamadas, dezenas de tarefas — esse hábito sai caro.
a abordagem proto.type
Raciocínio arquitetural Hotaru Opus 4.6
Revisão adversarial Seori + Kael GPT-5.4 / o3
Geração de código Iseul + Riku GPT-5.4 / Kimi K2
Cobertura de testes Brynja Gemini 3 Flash
Tudo você, provavelmente Opus 4.6 em tudo
Cada agente recebe o modelo que sua função realmente requer. Nem mais. Nem menos. O relatório matinal mostra exatamente quanto você economizou.
model routing
Atribuição inteligente de modelos
O proto.type detecta seus provedores configurados e atribui automaticamente cada agente ao melhor modelo disponível para sua função. Qualquer provedor, qualquer configuração. Adapta-se.
providers
Todo provedor. Direcionamento inteligente.
Anthropic, OpenAI, Google, xAI, Kimi, DeepSeek, Qwen, MiniMax, Hugging Face, OpenRouter, modelos locais. O proto.type atribui cada agente ao melhor modelo disponível para sua função — automaticamente.
monitoring
Visualizações de stream, pensamento e MCP
Assista agentes escreverem em tempo real. Veja cadeias de raciocínio se formarem. E para projetos complexos — assista agentes usarem o servidor MCP personalizado que construíram para ver dentro do software que estão construindo.
token intelligence
Camadas de contexto e cache
Cada agente recebe apenas o contexto que sua função requer. O Documento de Missão é armazenado em cache no início da execução. O cache de prompt reduz o custo de Hotaru em até 80% em execuções longas.
transparency
Cada token contabilizado
Cada chamada registra tokens de entrada, tokens de saída, tokens em cache e custo estimado. Detalhamento completo de custos por agente em cada relatório matinal. Sem surpresas.
skill library
Powered by gstack
Agentes extraem de gstack — uma biblioteca curada de melhores práticas de engenharia. Habilidades são citadas em debates com o mesmo peso que o Documento de Missão.
local & open-weight
Air-gapped, local e Hugging Face
Ollama, LM Studio, qualquer endpoint compatível com OpenAI, e todo o ecossistema de modelos Hugging Face incluindo endpoints de ajuste fino privados. Disponível em cada nível — se você tiver o hardware, construa sua solução.
O gstack foi instrumental na concepção dessa visão. A ideia de que conhecimento de engenharia poderia ser codificado como biblioteca de habilidades — algo que agentes citam como lei — veio diretamente de ver o que Garry construiu.
Garry Tan
Presidente e CEO, Y Combinator · criador do gstack
github · gstack ↗
← Voltar à página principal
criado por asha.software · software intencional · construído com amor e respeito pela privacidade do usuário
花 · 桜 · 春
idioma