contenox
Ihre souveräne, Open-Source-Runtime für zuverlässige KI-Workflows.
Orchestrieren Sie LLMs, externe Tools und Geschäftslogik als deterministische Zustandsmaschinen – vollständig selbstgehostet, erweiterbar und anbieterunabhängig.
KI-Workflows als Zustandsmaschinen
contenox führt KI-Workflows als explizite, beobachtbare Zustandsmaschinen aus. Jeder Schritt – LLM-Aufruf, Datenabruf oder externe Aktion – ist ein Zustand mit definierten Eingaben, Ausgaben und Übergängen.
🔌 Hooks: Verbinden Sie alles
Erweitern Sie Ihre Agenten mit Hooks – externen Diensten, die APIs, Datenbanken oder Tools anbinden. Registrieren Sie jeden OpenAPI-kompatiblen Endpunkt, und contenox generiert automatisch aufrufbare LLM-Tools.
⚙️ Deklarativ & beobachtbar
Definieren Sie Workflows in YAML oder per API. Jeder Übergang, Modellaufruf und Hook wird protokolliert, nachvollzogen und ist reproduzierbar – keine Black-Box-Agenten.
☁️ Selbstgehostet & portabel
Betreiben Sie contenox überall: On-Prem, air-gapped oder in der Cloud. In Go geschrieben, containerisiert und für Kubernetes optimiert. Volle Datenhoheit.
🔄 Multi-Modell-Orchestrierung
Leiten Sie Anfragen dynamisch an Ollama, vLLM, OpenAI oder eigene Backends weiter. Definieren Sie Fallbacks, Affinitätsgruppen und Routing-Strategien pro Task.
100 % Open Source. Keine Paywalls.
Nach intensiven internen Einsatz öffnen wir jetzt alles – Runtime, Hooks, Observability und Tooling – unter der Apache 2.0-Lizenz.
Wenn Sie genug haben von proprietären „KI-Plattformen“, die kritische Logik hinter APIs verstecken, gibt Ihnen contenox volle Kontrolle.
Repo sternen & loslegenIn 2 Minuten ausprobieren
Startet einen vollständigen KI-Stack: LLMs, Vektor-Datenbank, Tokenizer und Orchestrierungs-Engine.
git clone https://github.com/contenox/runtime.git
cd runtime
docker compose up -d
./scripts/bootstrap.sh nomic-embed-text:latest phi3:3.8b phi3:3.8b