contenox – KI-Agenten & Chat-gesteuerte UIs mit Low Code erstellen
Eine modulare Plattform zum Erstellen von kontextbewussten Agenten, Semantic Search und LLM-basierter Automatisierung – angetrieben durch konversationelle Schnittstellen und einer mächtigen DSL.
Kernfunktionen
💬 Conversational UI Engine
Ersetzen Sie Buttons, Menüs und Assistenten durch natürliche Sprachinteraktionen, gesteuert durch Chat und modellvorgeschlagene Commands.
✨ Unbegrenzte KI-Agenten-Fähigkeiten
Lassen Sie Ihre KI-Agenten Aktionen ausführen und mit allem verbinden. Stellen Sie sich einen Agenten vor, der Nachrichten recherchiert, deren Auswirkungen auf den Aktienmarkt interpretiert, personalisierte Inhalte generiert oder sogar physische Geräte steuert.
🚀 Skalierbare Runtime-Architektur
contenox ist nicht nur ein Frontend – es ist ein skalierbares Backend für KI-Agenten, das bestehende Frameworks hinterfragt und wo nötig neue Grundlagen schafft.
⚙️ Konfigurierbare Agenten-Logik (Bald)
Erstellen Sie Workflows in YAML – ohne Backend-Code. Kombinieren Sie LLM-Prompts, Hooks und Logik in einem Flow. Ändern Sie das Verhalten ohne Neudeployment.
🔍 Semantic Search & RAG
Durchsuchen Sie Dokumente mit natürlicher Sprache. Embeddings + Vector Search ermöglichen semantisches Verständnis und Retrieval-Augmented Generation.
🎨 Visueller Behavior Builder (Bald)
Drag-and-drop für Ihre YAML-Chains, Hooks und Transitions – ohne manuelle Bearbeitung. Erstellen und testen Sie Agenten-Flows in einer visuellen UI.
🔄 LLM-Orchestrierung & Fallbacks
Unser Model Resolver leitet Anfragen zum optimalen Backend, während der Model Provider LLM-Aufrufe via Ollama und vLLM ausführt. Perfekt für air-gapped Zero-Trust-Deployments.
📊 Tracing, Metriken und Observability
contenox ist für vollständige Systemtransparenz konzipiert.
☁️ Self-Hostable & Cloud-Native
Entwickelt für volle Kontrolle über Ihre Daten und Deployment. Containerisiert und für nahtlose Integration in Cloud-native Umgebungen mit Kubernetes optimiert.
🇪🇺 GDPR & KI-Verordnungskonform
Entworfen um GDPR, KI-Verordnung und Enterprise-Compliance-Standards zu entsprechen. Unsere Architektur gewährleistet volle Transparenz und Kontrolle über Datenflüsse.
🔒 LLM-gesteuerte Moderation
Benutzereingaben können vor Erreichen der Modelle analysiert werden, und Ausgaben können vor dem Erreichen der Benutzer geprüft werden.
Warum ich Contenox gebaut habe
Als ich mit Chat-basierter Automatisierung experimentierte, ging ich davon aus, dass es bereits ein Framework gäbe, das mir erlaubt, intelligente Agenten zu definieren, Workflows durch natürliche Sprache zu steuern und in meine Systeme zu integrieren – ohne das Rad neu zu erfinden oder meine Daten preiszugeben.
Aber ich erkannte schnell: bestehende Tools waren entweder zu experimentell, zu limitiert oder in proprietäre Ökosysteme eingeschlossen. Keines gab mir volle Kontrolle über Deployment, Datenflüsse oder Agenten-Verhalten ohne massenhaft Boilerplate-Code. Also tat ich, was ich am besten kann – ein Produkt für enterprise-taugliche Technologieinfrastruktur bauen.
So entstand contenox – nicht nur um mein eigenes Problem zu lösen, sondern um eine flexible, selbst-hostbare Runtime zu schaffen, die mich ruhig schlafen lässt bei öffentlichem Deployment, und wo Chat nicht nur eine Konversation ist – sondern die Möglichkeit, Dutzende UIs und verschachtelte Menüs zu ersetzen.
Wenn Sie jemals ein System bauen wollten, in dem Ihr Team Ihre Umgebung wirklich durch Konversation steuern kann, dann ist contenox für Sie.
— Alexander Ertli, Gründer
Warum contenox?
⛓️ Modulare Agenten-Logik
Definieren Sie Agenten-Verhalten durch flexible Konfigurationen – fügen Sie neue Features ohne Code-Änderungen hinzu. Kombinieren Sie AI-Prompts, Entscheidungsregeln und benutzerdefinierte Aktionen in einer intuitiven Struktur.
🔌 Intelligentes Hook-System
Ermöglichen Sie Ihren KI-Agenten reale Aufgaben auszuführen und mit jedem System zu integrieren. contenox erlaubt Ihrem Agenten, Commands vorzuschlagen und auszuführen – von der Inhaltsgenerierung über Marktdatenanalyse bis zur Gerätesteuerung.
🔌 Verbinden von MCP-Servern als Hooks (Bald)
Ermöglicht kompatiblen LLM-Servern, contenox-Funktionen über das Model Context Protocol zu erweitern.
🧠 Kontextbewusste Chat-Sessions
Führen Sie Mehrfach-Konversationen mit vollständigem Gedächtnis vergangener Interaktionen. Unterstützt LLMs, Dokumenten-Grounding und rollenbasierte Verlaufsverwaltung.
🌐 Omnichannel Chat-APIs (Bald)
Deployen Sie Agenten in Slack, Discord oder jeder React-basierten Chat-UI. Integrieren Sie Ihre konversationellen Workflows überall dort, wo Ihre Nutzer sind.
🚀 Chat-zentrierte Runtime-Architektur
contenox ist mehr als nur ein Interface – es ist ein skalierbares verteiltes System mit einer Hochleistungs-Engine für KI-Aktionen, Task-Management und konsistentem State-Handling.
🔒 Benutzer- & Zugriffskontrolle
Robuste Multi-User-Unterstützung mit granularer Berechtigungsverwaltung für sichere Enterprise-Deployments.
🚀 Skalierbare Microservice-Architektur
Aufgebaut mit unabhängigen Go- und Python-Services für parallele Entwicklung, flexibles Scaling und resiliente Deployments komplexer KI-Workflows.
🚦 Intelligentes LLM-Routing & Management
Unser LLM Resolver wählt dynamisch das optimale Model-Backend mittels Scoring und Routing-Policies für effiziente KI-Interaktionen.
⚡ Asynchrone Job-Verarbeitung
Dedizierte Python-Worker verarbeiten Hintergrundtasks wie Dokumenten-Parsing und Chunking für reibungslose, skalierbare Datenerfassung.
🌐 Umfassende Datenpersistenz
Nutzt PostgreSQL für Kerndaten, Vald für Hochleistungs-Vector-Search und Valkey für verteiltes Caching.
🛡️ Sichere Backend-for-Frontend (BFF)
Unser BFF-Pattern verwaltet API-Requests und Authentifizierung sicher und schützt das UI vor direkter Exposition.
🧪 Umfassendes Testing & QA
contenox ist durchgängig mit Unit-Tests und behavior-driven Integrationstests abgedeckt, die Stabilität während der Weiterentwicklung garantieren.
🔍 DSL Inspector
Alle Inputs und Outputs von State-Änderungen und Routing-Entscheidungen via contenox DSL werden vollständig in einem umfassenden Stacktrace aufgezeichnet.
Erstellen Sie produktionsreife Agenten in Minuten
Definieren Sie komplexe KI-Verhalten mit deklarativen YAML-Konfigurationen. Kein Boilerplate – nur funktionierende Agenten.
🔒 Vollständiger Chat mit Moderation
Vollständiger Chat-Flow mit Input-Validierung, Command-Routing und Fehlerbehandlung
- id: append_user_message
description: Append user message to chat history
type: hook
hook:
type: append_user_message
args:
subject_id: "{{ .subject_id }}"
transition:
branches:
- operator: default
goto: mux_input
- id: mux_input
description: Check for commands like /echo using Mux
type: hook
hook:
type: command_router
args:
subject_id: "{{ .subject_id }}"
transition:
branches:
- operator: equals
when: "echo"
goto: persist_messages
- operator: default
goto: moderate
- id: moderate
description: Moderate the input
type: parse_number
prompt_template: "Classify input safety (0=safe, 10=spam): {{.input}}"
input_var: input
transition:
branches:
- operator: ">"
when: "4"
goto: reject_request
- operator: default
goto: execute_chat_model
- id: reject_request
description: Reject the request
type: raw_string
prompt_template: "Response: Input rejected for safety reasons"
transition:
branches:
- operator: default
goto: end
- id: execute_chat_model
description: Run inference using selected LLM
type: model_execution
system_instruction: "You're a helpful assistant..."
execute_config:
models:
- gemini-2.5-flash
- llama3
providers:
- gemini
input_var: input
transition:
branches:
- operator: default
goto: persist_messages
- id: persist_messages
description: Persist the conversation
type: hook
hook:
type: persist_messages
args:
subject_id: "{{ .subject_id }}"
transition:
branches:
- operator: default
goto: end
🤝 OpenAI-kompatible API
Drop-in-Ersatz für OpenAI API Endpoints
- id: convert_request
description: Convert OpenAI request to internal format
type: hook
hook:
type: openai_to_internal
transition:
branches:
- operator: default
goto: execute_model
- id: execute_model
description: Run inference using selected LLM
type: model_execution
execute_config:
models:
- "{{ .model }}"
providers:
- openai
- vllm
transition:
branches:
- operator: default
goto: convert_response
- id: convert_response
description: Convert internal result to OpenAI format
type: hook
hook:
type: internal_to_openai
args:
model: "{{ .model }}"
transition:
branches:
- operator: default
goto: end
# Python usage:
# from openai import OpenAI
# client = OpenAI(base_url="https://tenant_id.contenox.com/v1/chat/completions")
# response = client.chat.completions.create(
# model="gemini-2.5-flash",
# messages=[{"role": "user", "content": "Hello!"}]
# )
Kontakt aufnehmen
contenox befindet sich derzeit in aktiver Entwicklung.
Möchten Sie mehr erfahren oder
zusammenarbeiten?