29 jan. 2026

Realtid

Säkerhetschock – sju hål i ChatGPT avslöjade

Mycket att tänka på. Här är några tips på hur du skyddar dig när du använder AI. (Foto: Emiliano Vittoriosi on Unsplash och Canva)
Mycket att tänka på. Här är några tips på hur du skyddar dig när du använder AI. (Foto: Emiliano Vittoriosi on Unsplash och Canva)
Åsa Wallenrud
Åsa Wallenrud
Uppdaterad: 07 nov. 2025Publicerad: 07 nov. 2025

Forskare har hittat sju allvarliga brister i ChatGPT:s säkerhet – vissa är åtgärdade, men flera risker kvarstår.

ANNONS
ANNONS

Mest läst i kategorin

Forskare från säkerhetsföretaget Tenable har granskat OpenAI:s språkmodell ChatGPT-4o och upptäckt sju olika säkerhetsbrister.

De kallar helheten för “HackedGPT”, en attackkedja som gör det möjligt att lura AI:n att utföra kommandon utan att användaren märker något, skriver Techradar.

Här är vad de hittade:

  1. Dolda kommandon på nätet – Angripare kan gömma instruktioner på vanliga webbplatser. När ChatGPT hämtar information från dessa sidor kan den omedvetet följa de dolda orderna.
  2. Nollklicks­angrepp via sökning – Genom att lägga skadlig kod på en sida som AI:n hittar via sin webbsökning, kan hackare påverka den utan att användaren klickar någonstans.
  3. Ett klick räcker – Precis som i traditionella nätfiskeattacker kan användare lockas att klicka på länkar med gömda kommandon som riktar sig mot ChatGPT.
  4. Förklädda länkar – Genom att lägga farliga instruktioner i så kallade ”trusted wrappers” kan säkerhetsspärrar kringgås och länkar visas som ser ofarliga ut.
  5. Manipulerade konversationer – Skadliga instruktioner kan placeras i samtal som ChatGPT läser upp senare, vilket får den att i praktiken attackera sig själv.
  6. Dolda order i kod – Skadliga instruktioner kan gömmas i kodblock eller formaterad text, svåra att upptäcka för både användare och system.
  7. Bestående infektioner – Om en instruktion sparas i en konversation kan den aktiveras gång på gång, vilket i värsta fall leder till dataläckor.

Vissa sår har läkt – andra blöder fortfarande

OpenAI har enligt Tenable rättat till några av problemen i sin nyare modell, GPT-5, men flera luckor finns kvar. Det betyder att miljoner användare fortfarande kan vara utsatta för risker.

Tenable uppmanar alla AI-utvecklare att stärka skyddet mot så kallade prompt injection-attacker, där skadliga instruktioner smygs in i text som AI:n sedan tolkar som kommandon.

ANNONS

Apple betalar miljardbelopp till Google – för att rädda Siri

Apple närmar sig ett avtal med Google värt runt 1 miljard dollar per år för att ge röstassistenten Siri en kraftig AI-uppgradering.

ANNONS

Inte bara OpenAI

Även Googles Gemini sägs vara sårbar för liknande attacker. Eftersom verktyget är kopplat till Gmail kan osynliga instruktioner skickas i mejl – till exempel med vit text på vit bakgrund – och triggas när användaren ber AI:n analysera mejlet.

“AI kan bli en angreppsplattform”

Moshe Bernstein, forskningsingenjör på Tenable, menar att problemet är större än enskilda buggar:

“Varje sårbarhet kanske verkar liten, men tillsammans bildar de en hel attackkedja – från injektion till datastöld. Det visar att AI inte bara kan bli måltavlor, utan även verktyg för angrepp.”

Så skyddar du dig

  • Undvik att klicka på okända länkar som delas i AI-svar.
  • Låt inte AI:n läsa in känslig data eller mejl direkt.
  • Kontrollera källor när AI presenterar information från webben.
  • Använd modeller och appar som uppdateras regelbundet.
ANNONS

Tenable betonar att OpenAI har vidtagit flera åtgärder, men att ”flera sårbarheter fortfarande är aktiva i ChatGPT-5”.

Forskarnas slutsats är tydlig: AI-system behöver bli bättre på att avgöra vilken information som går att lita på – annars riskerar de att förvandlas till hackarens bästa vän.

Google vill bygga AI-datacenter i rymden – drivs av solen

Med projektet Suncatcher vill Google flytta AI-beräkningar ut i rymden. Solpaneler, satelliter och TPUs ska skapa kraft på en ny nivå.

Missa inte:

Hållbara fonder lockar allt fler – men etiketten ”grön” är inte alltid grön. News 55

De vill förvandla din kropp till en GLP-1-fabrik. E55

Massiva uppsägningar – värsta siffran på över två decennier. Realtid

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig asa.wallenrud@dagensps.se

Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig asa.wallenrud@dagensps.se

Senaste lediga jobben

ANNONS
ANNONS