Archiviertes Runtime-Projekt für souveräne GenAI-Anwendungen

Baue und betreibe KI-Workflows als beobachtbare Zustandsmaschinen.

Contenox war eine selbst hostbare Runtime für deterministische, chat-native KI-Anwendungen. Orchestriere Sprachmodelle, Tools und Business-Logik, ohne Kontrolle über Daten, Routing oder Verhalten abzugeben.

Das Venture hinter Contenox wurde eingestellt. Der Kernel bleibt als Open-Source-Projekt verfügbar und kann weiterhin als Referenz oder Experimentierplattform genutzt werden.

  • ⚙️ Runtime, keine Library
  • 🧩 Explizite Zustandsmaschinen
  • 🧠 Integriertes RAG & Tools
  • 🛡️ Self-hosted & souverän

Contenox wird nicht mehr aktiv weiterentwickelt. Diese Seite bleibt als Dokumentation und Kontext für Entwickler:innen, Analyst:innen und neugierige Menschen bestehen, die die Architektur oder Ansätze des Projekts nachvollziehen möchten.

Contenox in Aktion

Kurzer Rundgang durch die Chat-Oberfläche, die Zustandsmaschinen-Workflows und die Observability-Tools. Die Demo spiegelt den Stand des Projekts vor seiner Einstellung wider.

Chat-Interface & Workflow-Inspector

Die Contenox-UI kombiniert einen Chat-Client mit einem visuellen Workflow-Inspector und Execution-Traces – so sehen Teams genau, welche Zustände, Tools und Hooks an einer Unterhaltung beteiligt waren.

Screenshot der Contenox Chat-Oberfläche und des Workflow-Inspectors.

Was war Contenox?

Contenox war eine selbst hostbare Runtime zum Aufbau und Betrieb von Enterprise-Agents, semantischer Suche und chat-getriebenen Anwendungen. KI-Verhalten wurde als explizite, beobachtbare Zustandsmaschinen statt als intransparente Prompt-Ketten modelliert.

Runtime, nicht nur Library

Contenox war eine vollständige Runtime-Umgebung – mit API-Gateway, Background-Workern, Storage und Observability – nicht nur eine Sammlung von Helper-Funktionen.

Zustandsmaschinen statt Black Boxes

Workflows waren explizite Graphen aus Tasks, Handlern und Transitionen. Jeder Schritt war sichtbar, steuerbar und reproduzierbar.

Chat-native Oberfläche

Nutzer:innen interagierten per Chat, aber jede Nachricht trieb unter der Haube einen deterministischen Workflow – von RAG-Queries über Tool-Aufrufe bis zu Seiteneffekten.

Anbieterunabhängig & selbst gehostet

Betrieb on-prem, in der eigenen Cloud oder air-gapped. Requests konnten über OpenAI, Ollama, vLLM oder eigene Backends geroutet werden – ohne Lock-in.

Warum der Ansatz weiterhin relevant ist

Auch wenn Contenox als Venture beendet wurde, bleibt die Grundidee gültig: moderne KI-Systeme driften schnell in Intransparenz. Runtimes, die Logik, Datenflüsse und Seiteneffekte explizit machen, helfen Teams, über Verhalten nachzudenken statt zu raten.

Souveränität

Die Runtime war so ausgelegt, dass Teams Daten, Ausführungsgrenzen und Entscheidungslogik selbst kontrollieren konnten – ohne versteckte SaaS-Schichten.

Zuverlässigkeit & Kontrolle

Workflows wurden als deterministische Zustandsmaschinen modelliert: Tasks, Transitionen, Retries und Human-in-the-Loop waren explizit definiert.

Transparenz & Compliance

Jeder State-Change, jeder Modellaufruf und jeder Hook war nachvollziehbar – eine Basis für Audits, Governance und Regulierung.

Wann Contenox eingesetzt wurde

In seiner aktiven Phase ergänzte Contenox APIs wie OpenAIs Tools oder MCP. Es war vor allem dort sinnvoll, wo aus einzelnen KI-Aufrufen echte Workflows wurden.

Typische Einsatzszenarien

  • Agents mit echten Seiteneffekten in produktiven Systemen.
  • Mehrstufige Logik, Branching, Retries oder Freigaben.
  • Hohe Anforderungen an Observability und Replay.
  • Strenge Vorgaben für Self-Hosting oder regulierte Umgebungen.

Weniger geeignet war es, wenn …

  • nur ein einfacher Q&A-Chatbot benötigt wurde.
  • ein einzelner OpenAI-Tools-/MCP-Call pro Request ausreichte.
  • es nur um schnelle Prototypen ohne Persistenz ging.

KI-Workflows als explizite Zustandsmaschinen

Contenox führte KI-Workflows als explizite Zustandsmaschinen aus. Jeder Schritt – LLM-Call, Datenzugriff oder externe Aktion – war ein Task mit definierten Inputs, Outputs und Transitionen.

Hooks: Anbindung an beliebige Systeme

Über Hooks konnten externe APIs, Datenbanken oder Tools angebunden werden. Beliebige OpenAPI-kompatible Endpunkte wurden zu aufrufbaren Tools für das Modell.

Deklarativ & beobachtbar

Workflows wurden in YAML oder per API definiert. Jede Ausführung war nachverfolgbar: Transitionen, Modellaufrufe, Hook-Ergebnisse und Zwischenzustände waren sichtbar.

Wissens-basierte Workflows

Eingebaute RAG-Pipeline mit Dokument-Ingestion, Embeddings und Vektor-Suche (z. B. via Vald).

Multi-Model-Orchestrierung

Routing über Ollama, vLLM, OpenAI oder andere Provider – mit konfigurierbaren Fallbacks und Policies pro Task.

Architektur im Überblick

Contenox war modular und container-first aufgebaut. Die Runtime konnte in bestehende Stacks eingebettet oder als eigene Infrastruktur-Schicht für KI betrieben werden.

Kernkomponenten

  • Backend: Go-Runtime & API-Gateway.
  • Worker: Python für Parsing, Embeddings und Long-Running Jobs.
  • Storage: PostgreSQL für Metadaten und Zustand.
  • Cache & Queues: Valkey / Redis.
  • Vektorsuche: Vald für RAG-Indizes.

Interface & Deployment

  • Frontend: React- & TypeScript-basierter Chat-Client und visueller Builder.
  • Backend-for-Frontend-Pattern für die UI.
  • Containerisiert und für Kubernetes ausgelegt.
  • Geeignet für On-Prem, Cloud oder air-gapped Setups.

Contenox war keine Black-Box-SaaS, sondern Software, die selbst betrieben und angepasst werden konnte – eine Runtime zwischen LLMs und produktiven Systemen.

Projektstatus

Der Kern von Contenox ist weiterhin Open Source auf github.com/contenox/runtime .

Eine vorläufige OpenAPI-Spezifikation der Runtime-API steht als JSON und YAML zur Verfügung. Sie spiegelt den letzten Entwicklungsstand des Projekts wider.

Das Venture hinter Contenox wurde beendet und das Projekt wird nicht mehr aktiv weiterentwickelt oder kommerziell betrieben. Issues und Pull Requests auf GitHub werden nur unregelmäßig geprüft.

Für gelegentliche Fragen oder Hintergrund zum Projekt können Sie weiterhin an hello@contenox.com schreiben – eine Antwort kann jedoch nicht garantiert werden.