14 apr.
2026

Realtid

AI-agenter får växande mandat utan motsvarande kontroll

AI-agenter och
"AI-agenter måste hanteras utifrån vad de faktiskt är: system med åtkomst, påverkan och i allt högre grad handlingsförmåga", säger Emanuel Lipschütz, Cybersäkerhetsexpert. (Kollage: Canva / Cyber Defencely)
Realtid Debatt

Realtid Debatt

”Använd AI nu, annars halkar ditt företag efter” – det är trenden, förespråkad av exempelvis Robert Lingemark i Realtid. Företag håller därför på att ta steget från AI som chattverktyg till AI-agenter som kan agera och utföra uppgifter i digitala miljöer. Såväl företag som deras leverantörer går nu fram för snabbt och måste höja sin kontrollnivå.

När företag kopplar dem till mejl, dokument, kalendrar och andra arbetsverktyg handlar det inte längre bara om effektivisering. Det handlar om system som kan hämta information, arbeta i flera steg och i vissa fall också utföra handlingar på användarens vägnar.

Enligt Boston Consulting Group uppger 54 procent av de nordiska respondenterna i bolagets studie att de experimenterar med AI-agenter.

Det gör dem användbara. Men det gör dem också till en ny typ av operativ risk, något som förespråkarna talar tyst om.

Det här är en en replik på Robert Lingemarks debattartikel. Åsikter och analys som framkommer är skribentens.

Agents of Chaos

En felaktig instruktion, en alltför bred behörighet eller manipulerat innehåll i det som agenten läser kan leda till dataläckage, felaktiga beslut eller oönskade åtgärder. Problemen uppstår inte bara när systemen gör fel, utan när de gör fel på sätt som är svåra att förutse och svåra att upptäcka i tid.

Det här är inte en teoretisk fråga. I preprintstudien Agents of Chaos, upplagd på arXiv den 23 februari 2026 av forskare från bland annat Northeastern University, Harvard University och Carnegie Mellon University, testades autonoma AI-agenter i en miljö med persistent memory, e-postkonton, Discord, filsystem och shell execution.

Forskarna dokumenterade bland annat känsliga utlämnanden, destruktiva systemåtgärder, manipulation via redigerbart innehåll och fall där agenter rapporterade att en uppgift var slutförd trots att systemtillståndet visade något annat.

Grundproblemet ligger delvis i hur tekniken fungerar. I språkmodellsbaserade system blandas instruktioner och data ofta i samma textflöde. Det innebär att innehåll som ser ut som information också kan påverka hur systemet agerar. Därför har prompt injection blivit en central säkerhetsfråga i agentiska system.

Läs även:
AI kan ersätta fängelse – med minnen direkt i hjärnan

AI-agenter är inte verktyg

AI-agenter är därför inte bara ytterligare ett verktyg. De måste hanteras utifrån vad de faktiskt är: system med åtkomst, påverkan och i allt högre grad handlingsförmåga. Inte bara smarta hjälpredor.

Regelverken ger heller inget utrymme att skylla på tekniken. NIS2 kräver lämpliga och proportionerliga cybersäkerhetsåtgärder och lägger ansvar på ledningen att godkänna och övervaka dem. I finanssektorn kräver DORA en sund, heltäckande och väldokumenterad IKT-riskhanteringsram. DORA lägger också det yttersta ansvaret för IKT-riskhanteringen på ledningsorganet.

Om en AI-agent orsakar ett dataläckage, en otillåten förändring eller ett affärskritiskt driftfel kommer den avgörande frågan inte att vara om modellen missförstod. Frågan blir om företaget förstod vilket mandat systemet hade fått.

Var riskbilden analyserad? Var behörigheterna proportionerliga? Fanns loggning, kontroller och tydliga möjligheter att ingripa? Var det tydligt definierat vilka åtgärder som krävde mänskligt godkännande?

Frågan måste därför behandlas som intern kontroll, inte bara som ett effektiviseringsprojekt.

Vi skulle aldrig ge en nyanställd obegränsad tillgång till företagets system, rätt att agera i flera kanaler samtidigt och möjlighet att utföra irreversibla åtgärder utan tydliga instruktioner, uppföljning och ansvar. Ändå är det i praktiken dit många organisationer riskerar att gå med AI-agenter.

Företag som inför AI-agenter bör börja i kontrolländen. Kartlägg var de används, vilka system de når, vilka åtgärder de får initiera och vilken loggning, vilka kontroller och vilken mänsklig granskning som finns på plats. De bör begränsa behörigheterna enligt principen om minsta möjliga åtkomst. Varje agent behöver en systemägare, ett tydligt definierat uppdrag och ett klart mandat.

AI kan skapa stor nytta i näringslivet, men måste införas med försiktighet. Arbetsuppgifter kan delegeras till AI-agenter. Men ansvar, kontroll och mandat kan aldrig delegeras bort.

Emanuel Lipschütz

Cybersäkerhetsexpert, Cyber Defencely

Realtid Debatt

Detta är ett debattinlägg på Realtid. Åsikterna och innehåll som uttrycks är skribentens egna och avspeglar inte redaktionens uppfattning.

Realtid Debatt

Detta är ett debattinlägg på Realtid. Åsikterna och innehåll som uttrycks är skribentens egna och avspeglar inte redaktionens uppfattning.

Senaste lediga jobben

Mest läst i kategorin

Klimat
Debatt

När planeten värmdes skakade politiken – klimatet som formade 2025

28 dec. 2025