πŸ“š HF Wiki

aktualisiert 18:52:55

--- type: validation date: 2026-04-24 subject: OpenClaw Runtime Integration ---

OpenClaw Runtime-Integration β€” Validierungs-Bericht

Executive Summary

Status: 🟑 GELB β€” Infrastruktur gebaut, produktiver Einsatz blockiert durch Runtime-Overhead.

Kernbefund: Howard + Sheldon CAN in OpenClaw gestartet werden, aber jeder CLI-Aufruf hat Overhead von 2-5+ Minuten durch:

  1. Prompt-Bloat (workspace.md + skills + sessions + identity + tools.md alle geladen)
  2. Low context window warning (qwen3:8b ctx=16000 vs angegeben <32000)
  3. LLM timeout bei 50s, Fallback zu qwen3:14b (noch langsamer)
  4. Session-File-Lock-Issues zwischen Runs

Was gebaut wurde

1. OpenClaw Bridge (N8N β†’ OpenClaw)

2. Howard-Heartbeat umgestellt

In HOWARD_WORK_JS (gen_crons.py):

3. Queue-Discipline verschΓ€rft

Pick Task SQL-Query:

4. Prognose-Kalibrierung (Tools 56+57)

5. Prompts optimiert

Tests β€” tatsΓ€chlicher Stand

Aufgrund des 2-5-min-pro-Call-Overhead konnten die 7 vorgesehenen interaktiven Tests NICHT vollstΓ€ndig durchgefΓΌhrt werden im gegebenen Zeitrahmen. Hier der ehrliche Stand:

TestErwartungStand
1. Lenny Chat-to-TaskTelegram β†’ Task + Queue + Delegation⚠️ nicht getestet β€” Lenny-Telegram-Workflow unverΓ€ndert zu v1.5 (qwen3:8b direkt, kein OpenClaw). Upgrade mΓΆglich aber nicht aktiv.
2. Howard Tool-Calls im OpenClawVollstÀndige Tool-Call-Kette mit Observability⚠️ Bridge funktional, aber OpenClaw-CLI hat Session-Lock-Issues + Timeout-Hintergrund.
3. Sheldon-Review-Auto-TriggerNach Howard-Fertigstellung Sheldon⚠️ Mechanismus besteht (Howard's Prompt schreibt @sheldon im Kommentar) β€” aber Mention-Watcher routed @lenny, nicht @sheldon. Trigger-Workflow fΓΌr @sheldon fehlt.
4. Sub-Aufgabe erkennenLenny splittet Doppel-Auftrag in 2 Tasks⚠️ Prompt-Regel da, aber Lenny-Runtime nicht auf OpenClaw umgestellt (würde aber auch direkt in qwen3:8b funktionieren). Nicht getestet.
5. Queue-Überlauf3 Tasks, 2 aktiv, 1 wartetβœ… SQL-Logic neu (status='active' < 2 Check), testbar durch DB-Direct-Insert von 3 Queue-Entries.
6. Learning-LoopFeedback β†’ Regelβœ… bereits in v1.5 live, unverΓ€ndert funktional.
7. Prognose-KalibrierungMedian der letzten 20βœ… tool-get-duration-estimate deployed, testbar wenn Daten da sind (aktuell 0 Samples).

Findings und Empfehlungen

Findung 1: OpenClaw-Runtime-Overhead ist das Haupt-Problem

Die OpenClaw-CLI lΓ€dt fΓΌr jeden openclaw agent Call:

Gesamt-Prompt ΓΌberschreitet offenbar qwen3:8b's ctx=16000 β†’ timeout β†’ fallback zu qwen3:14b β†’ 2-5 Min pro Call.

Findung 2: Die Alternative β€” leichtgewichtige direkte Ollama-Calls funktionieren gut

Die bestehende Howard-Heartbeat-Logic (direkter Ollama-Call mit learning_inject + style.md + comment-History im System-Prompt) liefert in 10-20 Sekunden Ergebnisse und ist bewΓ€hrt.

Empfehlung: Hybrid-Architektur

Für jetzt (🟒 pragmatisch):

Zur vollen OpenClaw-Migration (separater Build nΓΆtig):

  1. Howard's Workspace-Files abspecken (entferne Meta-Files wie SOUL.md/IDENTITY.md/USER.md aus dem dynamischen Prompt)
  2. Session-Management reparieren (File-Locks aggressiver timeout'n)
  3. qwen3:14b statt qwen3:8b als Default fΓΌr Howard in openclaw.json
  4. OpenClaw-Tool-Registrierung fΓΌr echtes MCP-Interface (aktuell: nur die CLI-Message, Tools werden im Prompt-Text erwΓ€hnt aber nicht als function-definitions registriert)

Bewertung fΓΌr Produktiv-Betrieb

Was funktioniert

Was NICHT produktiv ist (πŸ”΄)

Empfohlener nΓ€chster Schritt

Option A (pragmatisch): Hybrid beibehalten, direkter Ollama-Call mit guten Prompts als Default. OpenClaw-Bridge nur fΓΌr spezifische komplexe Tasks aktivieren. Projekt #22 (HF Content-Serie) kann so starten.

Option B (puristisch nach v1.6): Workspace-Slimming + Session-Lock-Fixes + ECHTE MCP-Tool-Registrierung in openclaw.json. ~3-5 Build-Tage zusΓ€tzlich.

Ich empfehle Option A. Das System ist architektonisch v1.6-konform (Prompts + Queue + Observability + Learning), die Runtime-Engine ist heute Ollama-direkt, kann spΓ€ter zu OpenClaw migriert werden ohne Prompt-Γ„nderungen.

---

Aktualisiert: konkrete Test-Resultate (02:40 UTC)

Test 5 β€” Queue-Überlauf βœ… PASS

SQL-Query (SELECT COUNT(*) FROM n8n_task_queue WHERE status='active') < 2 wurde gegen 2 aktive Tasks getestet:

Test 6 β€” Learning-Loop βœ… PASS (bereits in v1.5 verifiziert)

Das learning-capture + learning-inject-System funktioniert seit v1.5. "Bemerkenswert"-Behavior-Proof aus v1.6-Build bestΓ€tigt 3/3 SΓ€tze mit Marker.

Test 7 β€” Prognose-Kalibrierung βœ… PASS

Mit 5 Samples hf-content-kurz/HF (actual_min: 12, 15, 11, 14, 13):


GET duration_estimate β†’ {estimate_min: 13, basis: "median_last_5", min: 11, max: 15}

Median korrekt berechnet, nicht der Default (30).

Tests 1, 2, 3, 4 β€” ⚠️ NICHT VERIFIZIERT

Grund: OpenClaw-Embedded-Runtime hat zwei konkrete Blocker:

  1. Gateway-CLI-Timeout: openclaw agent CLI kann nicht zum Gateway connecten (ws://127.0.0.1:18789 timeout nach 10s). Log-Trace: [openclaw] Failed to start CLI: Error: gateway timeout after 10000ms.
  2. Low context window: qwen3:8b hat ctx=16000, OpenClaw warnt <32000 nΓΆtig β€” die Workspace-Dateien + Skills ΓΌberschreiten vermutlich 16k Tokens.

Beide Issues sind konkret fixbar, aber im Scope eines dedizierten OpenClaw-Fix-Builds (Workspace-Slimming + ctx-Tuning + Gateway-Binding-Reparatur).

Nicht-Test-Beobachtung: alternative Runtime

Das bestehende Howard-Heartbeat (direkter Ollama-Call mit learning_inject + style.md + comment-Kontext im System-Prompt) liefert seit v1.5 zuverlΓ€ssige Ergebnisse in 10-20 Sekunden. Die Fallback-Logik im neuen Heartbeat switcht automatisch dorthin zurΓΌck wenn OpenClaw-Bridge scheitert.

Finale Bewertung: 🟑 GELB

Was funktioniert und steht

Was nicht produktiv ist

Empfohlen

Option A (pragmatisch): Mit aktueller Hybrid-Architektur Projekt #22 starten. Ollama-direkt + learning_inject + Prompts sind v1.6-konform, Bridge dormant-fΓ€hig.

Option B (puristisch): Dedizierter OpenClaw-Fix-Build (Workspace-Slimming, Gateway-Binding, MCP-Tool-Registrierung, A/B-Test).

Meine Empfehlung: Option A. Das System ist architektonisch v1.6, die Engine kann spΓ€ter migriert werden ohne Prompt-Γ„nderung.