EN | DE

contenox – KI-Agenten & Chat-gesteuerte UIs mit Low Code erstellen

Eine modulare Plattform zum Erstellen von kontextbewussten Agenten, Semantic Search und LLM-basierter Automatisierung – angetrieben durch konversationelle Schnittstellen und einer mächtigen DSL.

Kernfunktionen

💬 Conversational UI Engine

Ersetzen Sie Buttons, Menüs und Assistenten durch natürliche Sprachinteraktionen, gesteuert durch Chat und modellvorgeschlagene Commands.

✨ Unbegrenzte KI-Agenten-Fähigkeiten

Lassen Sie Ihre KI-Agenten Aktionen ausführen und mit allem verbinden. Stellen Sie sich einen Agenten vor, der Nachrichten recherchiert, deren Auswirkungen auf den Aktienmarkt interpretiert, personalisierte Inhalte generiert oder sogar physische Geräte steuert.

🚀 Skalierbare Runtime-Architektur

contenox ist nicht nur ein Frontend – es ist ein skalierbares Backend für KI-Agenten, das bestehende Frameworks hinterfragt und wo nötig neue Grundlagen schafft.

⚙️ Konfigurierbare Agenten-Logik (Bald)

Erstellen Sie Workflows in YAML – ohne Backend-Code. Kombinieren Sie LLM-Prompts, Hooks und Logik in einem Flow. Ändern Sie das Verhalten ohne Neudeployment.

🔍 Semantic Search & RAG

Durchsuchen Sie Dokumente mit natürlicher Sprache. Embeddings + Vector Search ermöglichen semantisches Verständnis und Retrieval-Augmented Generation.

🎨 Visueller Behavior Builder (Bald)

Drag-and-drop für Ihre YAML-Chains, Hooks und Transitions – ohne manuelle Bearbeitung. Erstellen und testen Sie Agenten-Flows in einer visuellen UI.

🔄 LLM-Orchestrierung & Fallbacks

Unser Model Resolver leitet Anfragen zum optimalen Backend, während der Model Provider LLM-Aufrufe via Ollama und vLLM ausführt. Perfekt für air-gapped Zero-Trust-Deployments.

📊 Tracing, Metriken und Observability

contenox ist für vollständige Systemtransparenz konzipiert.

☁️ Self-Hostable & Cloud-Native

Entwickelt für volle Kontrolle über Ihre Daten und Deployment. Containerisiert und für nahtlose Integration in Cloud-native Umgebungen mit Kubernetes optimiert.

🇪🇺 GDPR & KI-Verordnungskonform

Entworfen um GDPR, KI-Verordnung und Enterprise-Compliance-Standards zu entsprechen. Unsere Architektur gewährleistet volle Transparenz und Kontrolle über Datenflüsse.

🔒 LLM-gesteuerte Moderation

Benutzereingaben können vor Erreichen der Modelle analysiert werden, und Ausgaben können vor dem Erreichen der Benutzer geprüft werden.

Warum ich Contenox gebaut habe

Als ich mit Chat-basierter Automatisierung experimentierte, ging ich davon aus, dass es bereits ein Framework gäbe, das mir erlaubt, intelligente Agenten zu definieren, Workflows durch natürliche Sprache zu steuern und in meine Systeme zu integrieren – ohne das Rad neu zu erfinden oder meine Daten preiszugeben.

Aber ich erkannte schnell: bestehende Tools waren entweder zu experimentell, zu limitiert oder in proprietäre Ökosysteme eingeschlossen. Keines gab mir volle Kontrolle über Deployment, Datenflüsse oder Agenten-Verhalten ohne massenhaft Boilerplate-Code. Also tat ich, was ich am besten kann – ein Produkt für enterprise-taugliche Technologieinfrastruktur bauen.

So entstand contenox – nicht nur um mein eigenes Problem zu lösen, sondern um eine flexible, selbst-hostbare Runtime zu schaffen, die mich ruhig schlafen lässt bei öffentlichem Deployment, und wo Chat nicht nur eine Konversation ist – sondern die Möglichkeit, Dutzende UIs und verschachtelte Menüs zu ersetzen.

Wenn Sie jemals ein System bauen wollten, in dem Ihr Team Ihre Umgebung wirklich durch Konversation steuern kann, dann ist contenox für Sie.

— Alexander Ertli, Gründer

Warum contenox?

⛓️ Modulare Agenten-Logik

Definieren Sie Agenten-Verhalten durch flexible Konfigurationen – fügen Sie neue Features ohne Code-Änderungen hinzu. Kombinieren Sie AI-Prompts, Entscheidungsregeln und benutzerdefinierte Aktionen in einer intuitiven Struktur.

🔌 Intelligentes Hook-System

Ermöglichen Sie Ihren KI-Agenten reale Aufgaben auszuführen und mit jedem System zu integrieren. contenox erlaubt Ihrem Agenten, Commands vorzuschlagen und auszuführen – von der Inhaltsgenerierung über Marktdatenanalyse bis zur Gerätesteuerung.

🔌 Verbinden von MCP-Servern als Hooks (Bald)

Ermöglicht kompatiblen LLM-Servern, contenox-Funktionen über das Model Context Protocol zu erweitern.

🧠 Kontextbewusste Chat-Sessions

Führen Sie Mehrfach-Konversationen mit vollständigem Gedächtnis vergangener Interaktionen. Unterstützt LLMs, Dokumenten-Grounding und rollenbasierte Verlaufsverwaltung.

🌐 Omnichannel Chat-APIs (Bald)

Deployen Sie Agenten in Slack, Discord oder jeder React-basierten Chat-UI. Integrieren Sie Ihre konversationellen Workflows überall dort, wo Ihre Nutzer sind.

🚀 Chat-zentrierte Runtime-Architektur

contenox ist mehr als nur ein Interface – es ist ein skalierbares verteiltes System mit einer Hochleistungs-Engine für KI-Aktionen, Task-Management und konsistentem State-Handling.

🔒 Benutzer- & Zugriffskontrolle

Robuste Multi-User-Unterstützung mit granularer Berechtigungsverwaltung für sichere Enterprise-Deployments.

🚀 Skalierbare Microservice-Architektur

Aufgebaut mit unabhängigen Go- und Python-Services für parallele Entwicklung, flexibles Scaling und resiliente Deployments komplexer KI-Workflows.

🚦 Intelligentes LLM-Routing & Management

Unser LLM Resolver wählt dynamisch das optimale Model-Backend mittels Scoring und Routing-Policies für effiziente KI-Interaktionen.

⚡ Asynchrone Job-Verarbeitung

Dedizierte Python-Worker verarbeiten Hintergrundtasks wie Dokumenten-Parsing und Chunking für reibungslose, skalierbare Datenerfassung.

🌐 Umfassende Datenpersistenz

Nutzt PostgreSQL für Kerndaten, Vald für Hochleistungs-Vector-Search und Valkey für verteiltes Caching.

🛡️ Sichere Backend-for-Frontend (BFF)

Unser BFF-Pattern verwaltet API-Requests und Authentifizierung sicher und schützt das UI vor direkter Exposition.

🧪 Umfassendes Testing & QA

contenox ist durchgängig mit Unit-Tests und behavior-driven Integrationstests abgedeckt, die Stabilität während der Weiterentwicklung garantieren.

🔍 DSL Inspector

Alle Inputs und Outputs von State-Änderungen und Routing-Entscheidungen via contenox DSL werden vollständig in einem umfassenden Stacktrace aufgezeichnet.

Erstellen Sie produktionsreife Agenten in Minuten

Definieren Sie komplexe KI-Verhalten mit deklarativen YAML-Konfigurationen. Kein Boilerplate – nur funktionierende Agenten.

🔒 Vollständiger Chat mit Moderation

Vollständiger Chat-Flow mit Input-Validierung, Command-Routing und Fehlerbehandlung

    - id: append_user_message
  description: Append user message to chat history
  type: hook
  hook:
    type: append_user_message
    args:
      subject_id: "{{ .subject_id }}"
  transition:
    branches:
      - operator: default
        goto: mux_input

- id: mux_input
  description: Check for commands like /echo using Mux
  type: hook
  hook:
    type: command_router
    args:
      subject_id: "{{ .subject_id }}"
  transition:
    branches:
      - operator: equals
        when: "echo"
        goto: persist_messages
      - operator: default
        goto: moderate

- id: moderate
  description: Moderate the input
  type: parse_number
  prompt_template: "Classify input safety (0=safe, 10=spam): {{.input}}"
  input_var: input
  transition:
    branches:
      - operator: ">"
        when: "4"
        goto: reject_request
      - operator: default
        goto: execute_chat_model

- id: reject_request
  description: Reject the request
  type: raw_string
  prompt_template: "Response: Input rejected for safety reasons"
  transition:
    branches:
      - operator: default
        goto: end

- id: execute_chat_model
  description: Run inference using selected LLM
  type: model_execution
  system_instruction: "You're a helpful assistant..."
  execute_config:
    models:
      - gemini-2.5-flash
      - llama3
    providers:
      - gemini
  input_var: input
  transition:
    branches:
      - operator: default
        goto: persist_messages

- id: persist_messages
  description: Persist the conversation
  type: hook
  hook:
    type: persist_messages
    args:
      subject_id: "{{ .subject_id }}"
  transition:
    branches:
      - operator: default
        goto: end

🤝 OpenAI-kompatible API

Drop-in-Ersatz für OpenAI API Endpoints

    - id: convert_request
  description: Convert OpenAI request to internal format
  type: hook
  hook:
    type: openai_to_internal
  transition:
    branches:
      - operator: default
        goto: execute_model

- id: execute_model
  description: Run inference using selected LLM
  type: model_execution
  execute_config:
    models:
      - "{{ .model }}"
    providers:
      - openai
      - vllm
  transition:
    branches:
      - operator: default
        goto: convert_response

- id: convert_response
  description: Convert internal result to OpenAI format
  type: hook
  hook:
    type: internal_to_openai
    args:
      model: "{{ .model }}"
  transition:
    branches:
      - operator: default
        goto: end

    # Python usage:
    # from openai import OpenAI
    # client = OpenAI(base_url="https://tenant_id.contenox.com/v1/chat/completions")
    # response = client.chat.completions.create(
    #   model="gemini-2.5-flash",
    #   messages=[{"role": "user", "content": "Hello!"}]
    # )

Kontakt aufnehmen

contenox befindet sich derzeit in aktiver Entwicklung.
Möchten Sie mehr erfahren oder zusammenarbeiten?

Kontaktieren Sie uns