花 · 桜 · 春
proto.type · technology

Infrastructure sérieuse.
Coûts transparents.

Apportez vos propres clés API — ou exécutez entièrement sur des modèles locaux — ou orientez-vous vers un modèle affiné sur Hugging Face. proto.type détecte votre configuration et achemine intelligemment. Chaque token dépensé par chaque agent apparaît dans votre rapport du matin. Chaque configuration fonctionne.

le problème
Vous utilisez Opus
pour formater un fichier JSON.
Chaque développeur le fait. Le modèle de pointe est disponible, c'est facile, et cela fonctionne. Mais vous payez les tarifs Opus pour un travail qu'un modèle plus rapide et moins coûteux gère tout aussi bien. Sur un projet complet — des centaines d'appels, des dizaines de tâches — cette habitude s'avère coûteuse.
l'approche proto.type
Raisonnement architectural Hotaru Opus 4.6
Revue adversaire Seori + Kael GPT-5.4 / o3
Génération de code Iseul + Riku GPT-5.4 / Kimi K2
Couverture de tests Brynja Gemini 3 Flash
Tout vous, probablement Opus 4.6 sur tout
Chaque agent reçoit le modèle que son rôle requiert réellement. Ni plus, ni moins. Le rapport du matin vous indique précisément ce que vous avez économisé.
model routing
Assignation intelligente de modèles
proto.type détecte vos fournisseurs configurés et assigne automatiquement chaque agent au meilleur modèle disponible pour leur rôle. Tout fournisseur, toute configuration. S'adapte à vous.
providers
Tous les fournisseurs. Acheminement intelligent.
Anthropic, OpenAI, Google, xAI, Kimi, DeepSeek, Qwen, MiniMax, Hugging Face, OpenRouter, modèles locaux. proto.type assigne chaque agent au meilleur modèle disponible pour leur rôle — automatiquement.
monitoring
Vues flux, raisonnement et MCP
Observez les agents écrire en temps réel. Voyez les chaînes de raisonnement se former. Et pour les projets complexes — observez les agents utiliser le serveur MCP personnalisé qu'ils ont construit pour examiner à l'intérieur du logiciel qu'ils développent.
token intelligence
Tiering de contexte et mise en cache
Chaque agent reçoit uniquement le contexte que son rôle requiert. L'Objet Mission est mis en cache au démarrage. La mise en cache des prompts réduit le coût de Hotaru jusqu'à 80% sur les longues exécutions.
transparency
Chaque token comptabilisé
Chaque appel enregistre les tokens d'entrée, de sortie, en cache, et le coût estimé. Répartition complète des coûts par agent dans chaque rapport du matin. Aucune surprise.
skill library
Propulsé par gstack
Les agents puisent dans gstack — une bibliothèque curatée de meilleures pratiques d'ingénierie. Les compétences sont citées dans les débats avec le même poids que l'Objet Mission.
local & open-weight
Air-gappé, local et Hugging Face
Ollama, LM Studio, tout point de terminaison compatible OpenAI, et l'ensemble de l'écosystème de modèles Hugging Face y compris les points de terminaison privés affinés. Disponible à chaque niveau — si vous disposez du matériel, construisez à votre guise.
gstack a été instrumental dans la conception de cette vision. L'idée que les connaissances d'ingénierie pourraient être encodées comme une bibliothèque de compétences — quelque chose que les agents citent comme la loi — est venue directement de voir ce que Garry a construit.
Garry Tan
Président et CEO, Y Combinator · créateur de gstack
github · gstack ↗
← Retour à la page principale
créé par asha.software · logiciel intentionnel · construit avec amour et respect pour la confidentialité des utilisateurs
花 · 桜 · 春
langue