Realtid

Stora risker när AI ska tänka själv: "Glömmer andra uppgifter"

hallucinationer
47 procent av företagsanvändare har tagit stora beslut baserat på hallucinerade uppgifter från AI. (Foto: ChatGPT/Canva)
Johan Colliander
Johan Colliander
Uppdaterad: 06 maj 2025Publicerad: 06 maj 2025

AI-teknologin blir allt kraftfullare för var dag som går. Men styrkan verkar komma med ett pris då modellerna i allt större utsträckning börjar hitta på och ge fel svar, vilket leder till fler hallucinationer

ANNONS
ANNONS

Mest läst i kategorin

Spela klippet
Realtid TV

Spotify, Klarna och Skype – därför lyckas svensk tech

04 dec. 2025

Framsteg inom artificiell intelligens görs varje dag och nya versioner ägnar sig allt mer åt att tänka och ”resonera” än tidigare.

Problemet är bara att de nya, smartare, modellerna i allt större utsträckning bara hittar på svar, eller ”hallucinerar” som det heter i branschen, rapporterar New York Times.

Missa inte: AI förändrar allt – utom i Sverige? Realtid

När stora AI-modeller som OpenAI, Google och kinesiska DeepSeek utvecklas till att söka svar genom att tänka själva ökar också antalet fel. Modellerna har främst blivit bättre på matematik och programmering, men sämre på rena fakta.

Hallucinationerna bara ökar

Tidigare hade AI-modellernas hallucinationer minskat över tid för varje ny version – men den trenden har nu börjat gå åt andra hållet.

Enligt OpenAI:s egna test PersonQA Benchmark, där frågor om kända personer ska besvaras, hallucinerade den kraftullaste modellen o3 med 33 procent – ungefär dubbelt så mycket som föregående modell. Den senaste modellen o4 hallucinerade ännu mer med hela 48 procent.

Modellerna, som består av komplexa matematiska system och analyserar enorma mängder data, kan helt enkelt inte avgöra vad som är sant eller falskt. I ett test var hallucinationer för nya AI-system uppe i hela 79 procent.

ANNONS
hallucinationer
Ju bättre ChatGPT, desto större nöt att knäcka för OpenAI och Sam Altman (Foto: Lee Jin-man/AP/TT)
ANNONS

Senaste nytt

Spela klippet
Realtid Partner

Efter svaga kvartalet: "Oktober har varit en fantastisk månad"

13 nov. 2025
Kristina Sparreljung, Generalsekreterare, Hjärt-Lungfonden
Spela klippet
Realtid Partner

Så kan dina aktier rädda liv – Hjärt-Lungfonden lyfter fram möjligheten till aktiegåvor

01 okt. 2025

Svårt att förklara

Varför modellerna hallucinerar mer kan inte OpenAI själva riktigt svara på. Eftersom det rör sig om så stora mängder data är det omöjligt för en människa att själv kunna felsöka.

”Vi vet fortfarande inte riktigt exakt hur de här modellerna fungerar”, säger Hannaneh Hajishirzi, professor på University of Washington och forskare vid Allen Institute for Artificial Intelligence, till NYT.

Läs även: ”Företag löser fel problem” – AI-experten om varför projekten kraschar. Realtid TV

Ett problem med AI har varit att modellerna behövt stora mängder text att analyser. När mängden helt enkelt börjar ta slut, har man försökt träna modellerna genom ”trial-and-error”.

Det har fungerat bra för matematiska uppgifter, men sämre för faktauppgifter.

”Sättet de här systemen tränas på är att de börjar med att fokusera på en uppgift – och sedan glömmer andra uppgifter”, säger Laura Perez-Beltrachini, forskare på University of Edinburgh, till NYT.

ANNONS

Kan kosta miljarder

Ett annat problem är att när modellerna ska ”tänka igenom” problemen gör det steg för steg, vilket innebär att ett misstag i ett led kan leda till hallucinationer i efterföljande led – som sedan bara bygger vidare på varandra.

De potentiella problemen med AI som hallucinerar kan vara större än man tror. Enligt Deloitte Global Survey 2025, hade 47 procent av företagsanvändare tagit stora beslut baserat på hallucinerade uppgifter.  

Enligt McKinsey AI Impact Report från samma år uppskattades de finansiella kostnaderna hänförliga till hallucinationer uppgå till 67,4 miljarder dollar.

När tekniken knackar på – vilka jobb står pall för AI-vågen?

AI är ett ämne som blir mer och mer vanligt i vår vardag.

Motverkar syftet

Att faktakolla AI blir i sig ett nytt slags arbete. Enligt uppskattningar lägger arbetare i snitt 4,3 timmar i veckan på att rätta till hallucinationer, vilket till viss del motverkar själva syftet med AI som en tidsbesparande åtgärd. 

Hallucinationer kan också vara ett hot mot cybersäkerhet.

ANNONS

Farlig kod kan spridas via hallucinerade kodpaket som illvilliga aktörer kan registrera i ett nytt fenomen som kallas slopsquatting, rapporterar CSO Online.

Missa inte: ”Som en väldigt smart praktikant” – AI förändrar juristens vardag. Realtid

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
Johan Colliander
Johan Colliander

Mångårig ekonomijournalist. Tidigare på Fastighetsvärlden, Fri Köpenskap, Food Supply.

Johan Colliander
Johan Colliander

Mångårig ekonomijournalist. Tidigare på Fastighetsvärlden, Fri Köpenskap, Food Supply.

ANNONS
ANNONS