Sårbarheter i AI-plattformar kan hota företags säkerhet
Publicerad maj 1, 2026
Publicerad maj 1, 2026

Cato har nyligen avslöjat allvarliga säkerhetssårbarheter i de kända AI-plattformarna NVIDIA NeMo och Meta PyTorch. Det framkommer av deras forskning att AI-modeller som ofta anses ofarliga kan utnyttjas av angripare för att få kontroll över företags IT-system.
Enligt branschstandard informerade Cato CTRL NVIDIA och Meta om dessa problem redan under 2025. Medan NVIDIA bekräftade sårbarheten och gav den ett officiellt CVE-nummer, avfärdade Meta rapporten, vilket de ansåg ligga utanför deras ansvarsområde.
I takt med att fler företag använder AI och laddar ner färdigtränade modeller från offentliga arkiv, blir det viktigt att dessa filer behandlas med samma säkerhet som annan programvara. Sårbarheterna kan ge hackare tillgång till känslig information och kritisk infrastruktur.
Cato CTRL:s forskning belyser två specifika problem, först med NVIDIA NeMo, som automatiskt litar på och kör kod med en AI-modell utan att varna användaren. Detta kringgår viktiga säkerhetsåtgärder.
Det andra problemet rör Meta PyTorch, där en sårbarhet kan möjliggöra att en angripare kraschade systemet och potentiellt exekverade skadlig kod, även om företag följer rekommenderade säkerhetspraxis.
Dessa sårbarheter innebär en risk även för företag med hög IT-säkerhet. Angripare kan lura anställda att ladda ner skadliga AI-modeller genom att använda namn som liknar legitima modeller.
Cato Networks rekommenderar alla som använder AI-ramverk att omgående uppdatera till de senaste versionerna och att se på AI-modeller från externa källor som potentiella säkerhetshot.