UseAIEasily Logó
UseAIEasily

Publikált kutatás

The Hardened Shell: Evaluating Safety and Sovereignty in the OpenClaw Agent Architecture

Független biztonsági értékelés az autonóm agent sérülékenységekről, az "Agentic Paradox"-ról és a hagyományos bizalmi határok kudarcáról tartós LLM környezetekben.

Absztrakt

A nagy nyelvi modellek legutóbbi fejlődése felgyorsította az olyan autonóm agent rendszerek fejlődését, amelyek hosszú futásidejű végrehajtásra, eszközhasználatra és tartós memóriára képesek. Ezeket a rendszereket egyre gyakrabban szuverén asszisztensként pozicionálják: olyan szoftverentitásokként, amelyek folyamatosan a felhasználó nevében működnek, nyílt internetes információt olvasnak be, és közvetlenül hatnak helyi vagy hálózati környezetekre.

Miközben az OpenClaw körüli nyilvános diskurzus gyakran az emergens intelligenciára és AGI-közeli viselkedésre koncentrált, jóval kevesebb figyelem jutott az architektúrába épített biztonsági és irányítási feltételezésekre. A tanulmány szerint ez nem véletlen, hanem egy szélesebb Agentic Paradox része.

A modern agent workflow-k gyakran ugyanazon a bizalmi tartományon belül adnak a rendszereknek szemeket a privát kommunikációk olvasásához, kezeket shell parancsok végrehajtásához és memóriát a korábbi interakciók újraértelmezéséhez. Ezek a képességek jellemzően rövid életű vagy izolált komponensekből épülnek, majd tartós, hálózatra kötött környezetbe kerülnek megfelelő bizalmi határ- és identitásmodellek nélkül.

PDF letöltéseMegnyitás Zenodón

Szerzők

Joran Bjarne van Beek (NoaberAI.nl)

Dezső Mező (UseAIEasily)

Megjelenés

2026. február 3.


Kulcsszavak

Prompt injectionAI biztonságRed teamingInstruction followingLLM safetyAgent architektúrák

Biztosítsd az agentjeidet

Előzd meg a prompt injectionöket.

Ne hagyd, hogy az Agentic Paradox veszélyeztesse a vállalatodat. Tervezzünk zero-trust keretrendszert az AI rendszeredhez.