AI-assistenter som en säkerhetsrisk – ny forskning om OpenClaw
Publicerad maj 13, 2026
Publicerad maj 13, 2026

Enligt ett inlägg på ett hackerforum erbjuds root-åtkomst till en VD:s dator för 25 000 dollar. Men det verkliga värdet ligger i AI-assistenten han använder. ”Han pratar med den just nu medan jag skriver detta,” säger hon.
Hotforskningsgruppen Cato CTRL rapporterar att OpenClaw, en AI-assistent med öppen källkod, lagrar data i okrypterade textfiler. Detta inkluderar lösenord och affärsplaner, vilket gör den till en guldgruva för cyberkriminella.
Forskarna har identifierat över 45 000 OpenClaw-instanser online, med uppskattningsvis 30 000 av dessa redan komprometterade. Tre allvarliga sårbarheter har identifierats, däribland en som möjliggör utbrytning ur Docker-sandlådan, säger hon.
Den största risken ligger i hur en AI-assistent kan samla och aggregera känslig information i realtid. ”Angriparen behöver inte leta; assistenten har redan gjort jobbet,” konstaterar hon. Detta förändrar hotbilden jämfört med traditionella metoder.
Cato CTRL betonar att problemet inte är AI-tekniken i sig, utan att säkerheten inte har hållit jämna steg med dess utveckling. ”En AI-assistent med bred systemåtkomst lagrar data okrypterat,” säger hon.
Forskningen understryker vikten av att organisationer inventerar och riskbedömer AI-verktyg. För att förhindra sårbarheter bör sådana verktyg inte exponeras mot internet utan tillräckliga skyddsmekanismer, säger hon.