EN | DE

contenox

Ihre souveräne, Open-Source-Runtime für zuverlässige KI-Workflows.

Orchestrieren Sie LLMs, externe Tools und Geschäftslogik als deterministische Zustandsmaschinen – vollständig selbstgehostet, erweiterbar und anbieterunabhängig.

KI-Workflows als Zustandsmaschinen

contenox führt KI-Workflows als explizite, beobachtbare Zustandsmaschinen aus. Jeder Schritt – LLM-Aufruf, Datenabruf oder externe Aktion – ist ein Zustand mit definierten Eingaben, Ausgaben und Übergängen.

🔌 Hooks: Verbinden Sie alles

Erweitern Sie Ihre Agenten mit Hooks – externen Diensten, die APIs, Datenbanken oder Tools anbinden. Registrieren Sie jeden OpenAPI-kompatiblen Endpunkt, und contenox generiert automatisch aufrufbare LLM-Tools.

⚙️ Deklarativ & beobachtbar

Definieren Sie Workflows in YAML oder per API. Jeder Übergang, Modellaufruf und Hook wird protokolliert, nachvollzogen und ist reproduzierbar – keine Black-Box-Agenten.

☁️ Selbstgehostet & portabel

Betreiben Sie contenox überall: On-Prem, air-gapped oder in der Cloud. In Go geschrieben, containerisiert und für Kubernetes optimiert. Volle Datenhoheit.

🔄 Multi-Modell-Orchestrierung

Leiten Sie Anfragen dynamisch an Ollama, vLLM, OpenAI oder eigene Backends weiter. Definieren Sie Fallbacks, Affinitätsgruppen und Routing-Strategien pro Task.

100 % Open Source. Keine Paywalls.

Nach intensiven internen Einsatz öffnen wir jetzt alles – Runtime, Hooks, Observability und Tooling – unter der Apache 2.0-Lizenz.

Wenn Sie genug haben von proprietären „KI-Plattformen“, die kritische Logik hinter APIs verstecken, gibt Ihnen contenox volle Kontrolle.

Repo sternen & loslegen

In 2 Minuten ausprobieren

Startet einen vollständigen KI-Stack: LLMs, Vektor-Datenbank, Tokenizer und Orchestrierungs-Engine.


    git clone https://github.com/contenox/runtime.git
    cd runtime
    docker compose up -d
    ./scripts/bootstrap.sh nomic-embed-text:latest phi3:3.8b phi3:3.8b