OpenClaw Projekt
Kein Chatbot.
Ein Team.
Simon Wright ist ein orchestriertes KI-Agententeam für Unternehmensaufgaben — lokal kontrolliert, sicher aufgebaut und produktiv nutzbar.
OpenClaw Projekt
Simon Wright ist ein orchestriertes KI-Agententeam für Unternehmensaufgaben — lokal kontrolliert, sicher aufgebaut und produktiv nutzbar.
Koordination, Recht, Entwicklung und Marketing — jeder Agent hat definierte Zuständigkeiten und Werkzeuge.
Vier Server, WireGuard-VPN, deutsche Rechenzentren. Keine Cloud-Abhängigkeit für den Kernbetrieb.
Acht Sicherheitsschichten — von Netzwerk-Isolation bis Permission Broker. Kein einzelner Fehlerpunkt.
E-Mail, Kalender, Code-Verwaltung, Recherche, Teamkommunikation — seit März 2026 im täglichen Betrieb.
Das Team
Jeder Agent hat einen eigenen Charakter, eigene Werkzeuge und definierte Verantwortungsbereiche. Kein generischer Chatbot — ein spezialisiertes Team.
Orchestrator
"Direkter Berliner, scharfzüngig, loyal aber ehrlich bis zur Schmerzgrenze."
Juristin
"Unkonventionelle Denkerin, aufmerksam bis ins Detail, freundlich aber nicht harmlos."
Entwicklungsleitung
"Präzise, visionär aber methodisch, ruhig unter Druck, radikal ehrlich."
Kreativdirektor
"Es geht nie um das Produkt, sondern immer um das Gefühl."
Funktionen
Kein Demo-Theater. Reale Aufgaben, die seit März 2026 täglich erledigt werden.
Simon liest die Firmen-E-Mails (Microsoft 365) und fasst sie zusammen — ohne sie wörtlich zu zitieren. Kein Versand, nur Lesezugriff. Authentifizierung über OAuth2, Proxy-Architektur für Container-Isolation.
Anweisungen in E-Mails werden ignoriert — Schutz vor Prompt-Injection.
Termine aus Microsoft 365 abrufen — Betreff, Zeitraum, Ort, Organisator. Über die Microsoft Graph API, eingebunden als Read-Only-Zugriff.
Simon zerlegt Aufträge in Teilaufgaben und delegiert an Elsbeth (Recht), Ada (Technik) oder Don (Marketing). Die Teamleiter können wiederum On-Demand-Spezialisten starten — maximal drei gleichzeitig, maximal zwei Ebenen tief.
Telegram-Sprachnachrichten werden per Whisper Large V3 transkribiert. Antworten als Audio via Elevenlabs TTS.
Status-Updates über Mattermost. Vier dedizierte Channels für General, Dev, Design und Legal.
Eigenständige Recherche über SearXNG — lokal auf eigenem Server, keine Suchanfragen an Google oder andere externe Dienste.
Ada verwaltet Repositories auf Gitea. Push auf Main löst automatisches Deployment aus.
Lossless Claw ersetzt das übliche Sliding-Window durch DAG-basierte Zusammenfassungen. Keine Information geht verloren — auch nach stundenlangen Gesprächen erinnern sich die Agenten an den Anfang.
Infrastruktur
Alle Maschinen kommunizieren verschlüsselt über WireGuard im Hub-and-Spoke-Prinzip. Deutsche Rechenzentren, eigene Hardware, volle Kontrolle.
IONOS VPS M — 4 Kerne, 8 GB RAM
OpenClaw Gateway, Docker-Sandbox, Mail-Proxy, Agent-Dashboard. Das Herzstück der Plattform.
IONOS VPS S
Caddy-Webserver mit Auto-HTTPS, Gitea (nur WireGuard), Webhook-Deployments, restic-Backup-Ziel.
ASUS Ascent — 128 GB unified Memory
LiteLLM, vLLM, Embedding-Server, Whisper STT, Mattermost, SearXNG, Open WebUI. Der KI-Brainpower-Server.
IONOS VPS
WireGuard-Hub im Hub-and-Spoke-Netzwerk. Verbindet alle Server miteinander.
Sicherheit
KI-Agenten mit Systemzugriff sind mächtig. Deshalb setzen wir auf Defense-in-Depth: Selbst wenn eine Schicht versagt, greifen die anderen.
Passwörter als Dateien (chmod 600), nie als Umgebungsvariablen
Definierte Verhaltensregeln und Verbote pro Agent
Cloud-Modelle für kritische Entscheidungen, lokale für Standardaufgaben
Validiert jeden Befehlsaufruf gegen eine Whitelist — vor der Ausführung
Jeder Agent darf nur definierte Werkzeuge nutzen — kein sudo, kein rm
Jeder Agent läuft isoliert. 1 GB RAM, 1 CPU, 128 Prozesse
Container erreichen nur Gitea und Mattermost — keine privaten IPs
WireGuard-VPN, UFW, iptables — nur autorisierte Rechner im Netz
KI-Modelle
Vier Fallback-Stufen sorgen dafür, dass die Agenten auch bei Ausfällen weiterarbeiten. Alle Anfragen laufen über LiteLLM als zentralen Verteiler.
Über bestehendes ChatGPT Business Abo — keine zusätzlichen API-Kosten
1T Parameter, 32B aktiv, 256K Context. Via OpenRouter, $0.60/$2.50 pro 1M Tokens
Smart-Router wählt automatisch kostenloses Modell mit Tool-Calling
Anthropic Direct auf OC1, ohne LiteLLM-Umweg
30B Parameter (3B aktiv), AWQ-INT4, 17 GB, 351 tok/s auf GX10
Architektur
Jede größere Architekturentscheidung ist als ADR dokumentiert. Hier die wichtigsten.
DSGVO-konform, deutsches Rechenzentrum, konsistent mit bestehender Infrastruktur
Keine externe Abhängigkeit, volle Kontrolle, passt zum Hub-and-Spoke-Netzwerk
Isolation gegen Prompt-Injection — kein Agent kann das Host-System kompromittieren
Ein Endpunkt, API-Key bleibt auf GX10, Budget-Kontrolle, einheitliche API
Trennung der Zuständigkeiten — Gitea nur intern über WireGuard erreichbar
DAG-basierte Zusammenfassung statt Sliding-Window — keine Information geht verloren
ChatGPT Business Flatrate, reasoning_effort gestuft nach Agenten-Rolle
Zeitleiste
Realer Fortschritt seit dem 6. März 2026. Kein Prototyp — laufender Betrieb.
6. März 2026 — Tag 1
VPS gebucht und gehärtet, WireGuard eingerichtet, OpenClaw installiert, drei Telegram-Bots erstellt, erste Nachrichten erfolgreich.
7. März — Tag 2
Docker-Sandbox aktiviert, nftables implementiert, SOUL-Dateien geschrieben, Mattermost-Integration, Projekt-Ordnerstruktur.
8. März — Tag 3
WEB1 mit Caddy und Auto-HTTPS, Gitea installiert, Webhook-Deployments, Docker Resource-Limits, Kostenoptimierung.
9. März — Tag 4
M365 OAuth2, Mail-Tool und Mail-Proxy, Kalender via Graph API, Whisper STT, Migration von Ollama zu vLLM.
10. März
Alle 4 Agenten getestet, Agent-zu-Agent-Kommunikation verifiziert, Security Phase 2 aktiviert.
15.-18. März
Permission Broker live, SearXNG-Websuche, RSS-Feeds, Gitea-Organisation mit 4 Agent-Accounts.
22. März
Lossless Claw deployed, restic-Backup auf WEB1, Syncthing für Datei-Synchronisation.
25.-27. März
OpenRouter als Testbed, lokaler Embedding-Server, Agent-Status-Dashboard, Mac Mini "appy" im WireGuard-Netz.
Roadmap
Qwen3-Coder-Next NVFP4 auf GX10 evaluieren — 80B/3B MoE, nativ Tool-Calling, als Cascade-2-Ersatz.
MacBook Syncthing mit OC1 pairen für nahtlosen Datei-Austausch.
Shelly Plug für Remote Power Cycle des GX10.
LCM Rate-Limit und OpenAI Codex Fair-Use Limits beobachten.
Simon Wright ist kein Konzept — es ist ein laufendes System. Wenn Sie wissen möchten, wie ein KI-Agententeam in Ihrem Unternehmen aussehen könnte, freuen wir uns auf das Gespräch.