Realtid

Säkerhetschock – sju hål i ChatGPT avslöjade

Mycket att tänka på. Här är några tips på hur du skyddar dig när du använder AI. (Foto: Emiliano Vittoriosi on Unsplash och Canva)
Mycket att tänka på. Här är några tips på hur du skyddar dig när du använder AI. (Foto: Emiliano Vittoriosi on Unsplash och Canva)
Åsa Wallenrud
Åsa Wallenrud
Uppdaterad: 07 nov. 2025Publicerad: 07 nov. 2025

Forskare har hittat sju allvarliga brister i ChatGPT:s säkerhet – vissa är åtgärdade, men flera risker kvarstår.

ANNONS
ANNONS

Mest läst i kategorin

Forskare från säkerhetsföretaget Tenable har granskat OpenAI:s språkmodell ChatGPT-4o och upptäckt sju olika säkerhetsbrister.

De kallar helheten för “HackedGPT”, en attackkedja som gör det möjligt att lura AI:n att utföra kommandon utan att användaren märker något, skriver Techradar.

Här är vad de hittade:

  1. Dolda kommandon på nätet – Angripare kan gömma instruktioner på vanliga webbplatser. När ChatGPT hämtar information från dessa sidor kan den omedvetet följa de dolda orderna.
  2. Nollklicks­angrepp via sökning – Genom att lägga skadlig kod på en sida som AI:n hittar via sin webbsökning, kan hackare påverka den utan att användaren klickar någonstans.
  3. Ett klick räcker – Precis som i traditionella nätfiskeattacker kan användare lockas att klicka på länkar med gömda kommandon som riktar sig mot ChatGPT.
  4. Förklädda länkar – Genom att lägga farliga instruktioner i så kallade ”trusted wrappers” kan säkerhetsspärrar kringgås och länkar visas som ser ofarliga ut.
  5. Manipulerade konversationer – Skadliga instruktioner kan placeras i samtal som ChatGPT läser upp senare, vilket får den att i praktiken attackera sig själv.
  6. Dolda order i kod – Skadliga instruktioner kan gömmas i kodblock eller formaterad text, svåra att upptäcka för både användare och system.
  7. Bestående infektioner – Om en instruktion sparas i en konversation kan den aktiveras gång på gång, vilket i värsta fall leder till dataläckor.

Vissa sår har läkt – andra blöder fortfarande

OpenAI har enligt Tenable rättat till några av problemen i sin nyare modell, GPT-5, men flera luckor finns kvar. Det betyder att miljoner användare fortfarande kan vara utsatta för risker.

Tenable uppmanar alla AI-utvecklare att stärka skyddet mot så kallade prompt injection-attacker, där skadliga instruktioner smygs in i text som AI:n sedan tolkar som kommandon.

ANNONS

Apple betalar miljardbelopp till Google – för att rädda Siri

Apple närmar sig ett avtal med Google värt runt 1 miljard dollar per år för att ge röstassistenten Siri en kraftig AI-uppgradering.

ANNONS

Senaste nytt

Spela klippet
Realtid Partner

Efter svaga kvartalet: "Oktober har varit en fantastisk månad"

13 nov. 2025
Kristina Sparreljung, Generalsekreterare, Hjärt-Lungfonden
Spela klippet
Realtid Partner

Så kan dina aktier rädda liv – Hjärt-Lungfonden lyfter fram möjligheten till aktiegåvor

01 okt. 2025

Inte bara OpenAI

Även Googles Gemini sägs vara sårbar för liknande attacker. Eftersom verktyget är kopplat till Gmail kan osynliga instruktioner skickas i mejl – till exempel med vit text på vit bakgrund – och triggas när användaren ber AI:n analysera mejlet.

“AI kan bli en angreppsplattform”

Moshe Bernstein, forskningsingenjör på Tenable, menar att problemet är större än enskilda buggar:

“Varje sårbarhet kanske verkar liten, men tillsammans bildar de en hel attackkedja – från injektion till datastöld. Det visar att AI inte bara kan bli måltavlor, utan även verktyg för angrepp.”

Så skyddar du dig

  • Undvik att klicka på okända länkar som delas i AI-svar.
  • Låt inte AI:n läsa in känslig data eller mejl direkt.
  • Kontrollera källor när AI presenterar information från webben.
  • Använd modeller och appar som uppdateras regelbundet.
ANNONS

Tenable betonar att OpenAI har vidtagit flera åtgärder, men att ”flera sårbarheter fortfarande är aktiva i ChatGPT-5”.

Forskarnas slutsats är tydlig: AI-system behöver bli bättre på att avgöra vilken information som går att lita på – annars riskerar de att förvandlas till hackarens bästa vän.

Google vill bygga AI-datacenter i rymden – drivs av solen

Med projektet Suncatcher vill Google flytta AI-beräkningar ut i rymden. Solpaneler, satelliter och TPUs ska skapa kraft på en ny nivå.

Missa inte:

Hållbara fonder lockar allt fler – men etiketten ”grön” är inte alltid grön. News 55

De vill förvandla din kropp till en GLP-1-fabrik. E55

Massiva uppsägningar – värsta siffran på över två decennier. Realtid

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig [email protected]

Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig [email protected]

ANNONS
ANNONS