OpenClaw Daemon: Konfiguration für Server-Betrieb
Standard-Setup reicht für Solo. Für Server-Betrieb mit Team-Zugriff brauchst du eine durchdachte Daemon-Konfiguration. Hier die Details.
openclaw.json: die zentrale Datei
Liegt in ~/.openclaw/openclaw.json. JSON5-Format, sodass Kommentare und trailing commas erlaubt sind. Top-Level-Keys: providers, channels, skills, limits, logging, dashboard.
Provider-Routing
Mehrere LLM-Provider parallel:
{
"providers": {
"openai": { "apiKey": "$OPENAI_KEY", "models": ["gpt-5", "gpt-4o-mini"] },
"anthropic": { "apiKey": "$ANTHROPIC_KEY", "models": ["claude-opus-4-7", "claude-haiku-4-5"] },
"ollama": { "host": "http://localhost:11434", "models": ["llama3.3:70b"] }
}
}Pro Skill kannst du den Provider explicit setzen oder nach Datenklasse routen.
Limits
Token- und Rate-Limits pro User, Channel und Skill. Verhindert, dass ein wild gelaufener Skill dein OpenAI-Budget killt.
{
"limits": {
"tokensPerUserPerDay": 500000,
"tokensPerSkillPerCall": 50000,
"rateLimitPerChannel": "30/min"
}
}
Logging und Dashboard
Strukturiertes Logging in ~/.openclaw/logs/openclaw.log, Rotation täglich, max 30 Tage. Dashboard nur auf 127.0.0.1:18789 — niemals 0.0.0.0 (CVE-2026-25253).
launchd / systemd Unit
Auf macOS legt OpenClaw eine plist in ~/Library/LaunchAgents/ an. Auf Linux eine systemd-User-Unit. Beide sollten auf Restart=always mit RestartSec=5s stehen, plus Resource-Limits (MemoryMax=4G, CPUQuota=200%).