UseAIEasily Logo
UseAIEasily

Veröffentlichte Forschung

The Hardened Shell: Evaluating Safety and Sovereignty in the OpenClaw Agent Architecture

Eine unabhängige Sicherheitsbewertung autonomer Agent-Schwachstellen, des "Agentic Paradox" und des Versagens traditioneller Vertrauensgrenzen in langlaufenden LLM-Umgebungen.

Abstract

Neuere Fortschritte bei großen Sprachmodellen haben die Entwicklung autonomer Agentensysteme beschleunigt, die langlaufende Ausführung, Tool-Nutzung und persistente Erinnerung ermöglichen. Diese Systeme werden zunehmend als souveräne Assistenten positioniert: Software-Entitäten, die kontinuierlich im Auftrag ihrer Nutzer agieren, Informationen aus dem offenen Internet aufnehmen und direkt auf lokale sowie vernetzte Umgebungen einwirken.

Während sich die öffentliche Diskussion um OpenClaw oft auf emergente Intelligenz und AGI-nahe Verhaltensweisen konzentrierte, wurde den in die Architektur eingebetteten Sicherheits- und Governance-Annahmen deutlich weniger Aufmerksamkeit geschenkt. Das Papier argumentiert, dass dies kein Zufall ist, sondern Teil eines breiteren Agentic Paradox.

Moderne agentische Workflows geben Systemen häufig zugleich Augen zum Lesen privater Kommunikation, Hände zum Ausführen von Shell-Befehlen und Gedächtnis zum Speichern und Neuinterpretieren vergangener Interaktionen. Diese Fähigkeiten werden oft aus ursprünglich kurzlebigen oder isolierten Komponenten zusammengesetzt und ohne neue Vertrauensgrenzen in persistente, netzwerkverbundene Umgebungen gebracht.

PDF herunterladenAuf Zenodo ansehen

Autoren

Joran Bjarne van Beek (NoaberAI.nl)

Dezső Mező (UseAIEasily)

Veröffentlicht

3. Februar 2026


Schlüsselwörter

Prompt InjectionKI-SicherheitRed TeamingInstruction FollowingLLM SafetyAgent-Architekturen

Sichere deine Agenten

Verhindere Prompt Injections.

Lass nicht zu, dass das Agentic Paradox dein Unternehmen gefährdet. Wir entwickeln ein Zero-Trust-Framework für deine KI.