Das Problem
Sie verwenden Opus,
um eine JSON-Datei zu formatieren.
Das macht jeder Entwickler. Das Frontier-Modell ist direkt verfügbar, es ist einfach, und es funktioniert. Aber Sie zahlen Opus-Tarife für Arbeit, die ein schnelleres, günstigeres Modell genauso gut erledigt. Über ein ganzes Projekt — Hunderte von Aufrufen, Dutzende von Aufgaben — ist diese Gewohnheit teuer.
Der proto.type-Ansatz
| Architekturreasoning | Hotaru | → | Opus 4.6 |
| Adversariale Überprüfung | Seori + Kael | → | GPT-5.4 / o3 |
| Code-Generierung | Iseul + Riku | → | GPT-5.4 / Kimi K2 |
| Testabdeckung | Brynja | → | Gemini 3 Flash |
| Alles | Sie, vermutlich | → | Opus 4.6 für alles |
Jeder Agent verwendet das passende Modell für seine Aufgabe. Einfache Aufgaben verwenden schnelle Modelle. Komplexes Reasoning verwendet leistungsstarke. Der Morgenbericht zeigt, was Sie gespart haben.
model routing
Intelligente Modellzuweisung
proto.type weist jeden Agenten automatisch dem besten Modell für seine Rolle zu. Jeder Anbieter, jede Einrichtung.
providers
Jeder Anbieter. Intelligent geroutet.
Funktioniert mit Anthropic, OpenAI, Google und Dutzenden mehr. Weist jeden Agenten automatisch dem richtigen Modell für seine Aufgabe zu.
monitoring
Stream-, Gedanken- und MCP-Ansichten
Verfolgen Sie Ihr Team in Echtzeit bei der Arbeit. Sehen Sie deren Reasoning. Für komplexe Projekte bauen sie sogar benutzerdefinierte Werkzeuge, um zu verstehen, was sie bauen.
token intelligence
Kontext-Stufung und Caching
Jeder Agent erhält nur den Kontext, den seine Rolle erfordert. Das Missionsobjekt wird beim Start im Cache gespeichert. Prompt-Caching senkt Hotarus Kosten um bis zu 80% bei langen Durchläufen.
transparency
Jedes Token erfasst
Jede Aktion wird mit verwendeten Tokens und Kosten protokolliert. Vollständige Aufschlüsselung pro Agent in jedem Morgenbericht. Keine Überraschungen.
skill library
Powered by gstack
Agenten nutzen gstack — eine Bibliothek von Ingenieursbest Practices. Sie zitieren diese Praktiken in Debatten genauso wie den Projektplan.
local & open-weight
Luftisoliert, lokal und Hugging Face
Führen Sie vollständig offline mit Ollama, LM Studio oder jedem lokalen Modell aus. Funktioniert mit dem gesamten Hugging Face-Ökosystem. Auf jeder Stufe verfügbar.
“gstack war instrumental bei der Konzeption dieser Vision. Die Idee, dass Ingenieurswissen als Fähigkeitenbibliothek kodiert werden könnte — etwas, das Agenten wie Gesetz zitieren — kam direkt aus der Betrachtung dessen, was Garry gebaut hat.”