le problème
Vous utilisez Opus
pour formater un fichier JSON.
Chaque développeur le fait. Le modèle de pointe est disponible, c'est facile, et cela fonctionne. Mais vous payez les tarifs Opus pour un travail qu'un modèle plus rapide et moins coûteux gère tout aussi bien. Sur un projet complet — des centaines d'appels, des dizaines de tâches — cette habitude s'avère coûteuse.
l'approche proto.type
| Raisonnement architectural | Hotaru | → | Opus 4.6 |
| Revue adversaire | Seori + Kael | → | GPT-5.4 / o3 |
| Génération de code | Iseul + Riku | → | GPT-5.4 / Kimi K2 |
| Couverture de tests | Brynja | → | Gemini 3 Flash |
| Tout | vous, probablement | → | Opus 4.6 sur tout |
Chaque agent reçoit le modèle que son rôle requiert réellement. Ni plus, ni moins. Le rapport du matin vous indique précisément ce que vous avez économisé.
model routing
Assignation intelligente de modèles
proto.type détecte vos fournisseurs configurés et assigne automatiquement chaque agent au meilleur modèle disponible pour leur rôle. Tout fournisseur, toute configuration. S'adapte à vous.
providers
Tous les fournisseurs. Acheminement intelligent.
Anthropic, OpenAI, Google, xAI, Kimi, DeepSeek, Qwen, MiniMax, Hugging Face, OpenRouter, modèles locaux. proto.type assigne chaque agent au meilleur modèle disponible pour leur rôle — automatiquement.
monitoring
Vues flux, raisonnement et MCP
Observez les agents écrire en temps réel. Voyez les chaînes de raisonnement se former. Et pour les projets complexes — observez les agents utiliser le serveur MCP personnalisé qu'ils ont construit pour examiner à l'intérieur du logiciel qu'ils développent.
token intelligence
Tiering de contexte et mise en cache
Chaque agent reçoit uniquement le contexte que son rôle requiert. L'Objet Mission est mis en cache au démarrage. La mise en cache des prompts réduit le coût de Hotaru jusqu'à 80% sur les longues exécutions.
transparency
Chaque token comptabilisé
Chaque appel enregistre les tokens d'entrée, de sortie, en cache, et le coût estimé. Répartition complète des coûts par agent dans chaque rapport du matin. Aucune surprise.
skill library
Propulsé par gstack
Les agents puisent dans gstack — une bibliothèque curatée de meilleures pratiques d'ingénierie. Les compétences sont citées dans les débats avec le même poids que l'Objet Mission.
local & open-weight
Air-gappé, local et Hugging Face
Ollama, LM Studio, tout point de terminaison compatible OpenAI, et l'ensemble de l'écosystème de modèles Hugging Face y compris les points de terminaison privés affinés. Disponible à chaque niveau — si vous disposez du matériel, construisez à votre guise.
“gstack a été instrumental dans la conception de cette vision. L'idée que les connaissances d'ingénierie pourraient être encodées comme une bibliothèque de compétences — quelque chose que les agents citent comme la loi — est venue directement de voir ce que Garry a construit.”