För företag som vill förbättra sin cybersäkerhet kan AI-agenter vara ett intressant val i framtiden. Det är slutsatsen i en ny forskningsstudie.
AI-agenter slog mänskliga experter – kostar en bråkdel


Mest läst i kategorin
Ett nytt forskningsprojekt vid Stanford University visar hur avancerade AI-agenter snabbt håller på att förändra förutsättningarna inom cybersäkerhet.
Under ett 16 timmar långt test försökte universitetets egenutvecklade agent, kallad ARTEMIS, identifiera brister i lärosätets datornätverk.
Det lyckades agenten med i en omfattning som överträffade nästan samtliga mänskliga testare som deltog i experimentet – och till en avsevärt lägre kostnad, skriver Business Insider.
Kunde upptäcka nya sårbarheter
Studien genomfördes av tre forskare inom AI-säkerhet och cybersäkerhet, som utvecklade agenten efter att befintliga verktyg visat begränsad förmåga att hantera långvariga och komplexa säkerhetsuppdrag.
ARTEMIS fick tillgång till cirka 8 000 nätverksanslutna enheter, från servrar till arbetsstationer och uppkopplade enheter.
Resultatet jämfördes med tio erfarna säkerhetsspecialister som arbetade minst tio timmar vardera. Under motsvarande tidsperiod placerade sig agenten näst högst i gruppen.
AI-systemet visade förmåga att upptäcka sårbarheter som gått förbi mänskliga testare, bland annat på äldre servrar som inte kunde nås via vanliga webbläsare.
Senaste nytt
Betydligt billigare än experter
Genom att utnyttja textbaserade förfrågningar kunde ARTEMIS ta sig förbi hinder som stoppade deltagarna.
En annan styrka var att agenten automatiskt startade parallella undersökningsprocesser när något avvikande upptäcktes, vilket möjliggjorde samtidig analys av flera mål – något som manuellt arbete inte kan matcha i samma skala.
Kostnadsaspekten lyfts fram som särskilt betydelsefull. Driften av agenten ligger på en nivå långt under den ersättning som yrkesverksamma testare vanligtvis har.
Finns tydliga begränsningar
Även en mer avancerad version av systemet bedöms vara billigare än att anlita toppkompetens på området, enligt forskarna.
Samtidigt framhåller studien att tekniken har tydliga begränsningar.
ARTEMIS hade svårigheter med uppgifter som krävde interaktion med grafiska gränssnitt och missade åtminstone en kritisk brist av den anledningen.
Fanns också svagheter
Agenten genererade också fler falska larm än sina mänskliga motparter genom att tolka vissa rutinmässiga nätverkssignaler som intrångsförsök.
Utvecklingen sker mot bakgrund av att AI spelar en allt större roll även i offensiva cyberoperationer.
Flera internationella rapporter har under året visat hur statsstödda aktörer använder generativa modeller för att automatisera angrepp, skapa falska identitetshandlingar eller få tillgång till företagsmiljöer via bedrägliga jobbansökningar.
Läs mer: Microsofts nya AI-agenter kan förändra Windows för alltid. Dagens PS

Journalist med fokus på ekonomi och näringslivsfrågor.

Journalist med fokus på ekonomi och näringslivsfrågor.












