11 feb. 2026

Realtid

Ett klick räckte – AI-assistenten kunde börja läcka data

En till synes oskyldig länk kunde utnyttjas för att manipulera AI-verktyg – utan att användaren märkte något. (Foto: Varonis)
En till synes oskyldig länk kunde utnyttjas för att manipulera AI-verktyg – utan att användaren märkte något. (Foto: Varonis)
Åsa Wallenrud
Åsa Wallenrud
Uppdaterad: 16 jan. 2026Publicerad: 16 jan. 2026

En till synes vanlig länk avslöjade en oväntad svaghet i modern AI-teknik – innan den hann få större konsekvenser.

ANNONS
ANNONS

Mest läst i kategorin

harvey
IT & tech

AI-startup kan få jättevärdering – vill ta in mer pengar

11 feb. 2026
IT & tech

Hon leder en av Sveriges största AI-satsningar: "Kommer att gå fel"

10 feb. 2026
IT & tech

Förnybar energi utsatt för hackerattack – nära blackout

09 feb. 2026
IT & tech

Fyra hot kan spräcka historiens största bubbla

06 feb. 2026
IT & tech

Anthropic hånar OpenAI:s reklam – med egen reklam

06 feb. 2026

Säkerhetsforskare på Varonis har identifierat en ny metod för så kallade prompt injection-attacker mot Microsoft Copilot. Angreppet fick namnet ”Reprompt” och krävde bara ett enda klick från användaren för att kunna missbrukas.

Till skillnad från tidigare varianter behövde angriparna varken skicka mejl med dold text eller placera skadliga instruktioner på kapade webbplatser. I stället räckte det att lura användaren att klicka på en till synes harmlös länk.

När länken blir en instruktion

I vanliga fall fungerar prompt injection genom att en AI-tjänst inte klarar att skilja på instruktioner och vanlig text. Angriparen gömmer därför kommandon som AI:n glatt utför.

PC-racet spårar ur – därför kan din nästa dator bli chockdyr

PC-marknaden tog oväntad fart under slutet av 2025 när lagerhamstring, minnesoro och Windows-skiften drev upp leveranserna globalt.

I det här fallet utnyttjades hur Copilot tolkar webbadresser. Genom att lägga till en lång följd instruktioner som parameter i slutet av en URL – exempelvis efter ett ”q=” – behandlade Copilot innehållet som om användaren själv hade skrivit in det i chattfältet.

Resultatet blev att AI-verktyget kunde luras att lämna ifrån sig information som användaren tidigare delat, exempelvis sammanfattningar, anteckningar eller annan känslig data.

ANNONS
Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig asa.wallenrud@dagensps.se

Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig asa.wallenrud@dagensps.se

Senaste lediga jobben

ANNONS
ANNONS