AI-teknologin blir allt kraftfullare för var dag som går. Men styrkan verkar komma med ett pris då modellerna i allt större utsträckning börjar hitta på och ge fel svar, vilket leder till fler hallucinationer.
Stora risker när AI ska tänka själv: "Glömmer andra uppgifter"


Framsteg inom artificiell intelligens görs varje dag och nya versioner ägnar sig allt mer åt att tänka och ”resonera” än tidigare.
Problemet är bara att de nya, smartare, modellerna i allt större utsträckning bara hittar på svar, eller ”hallucinerar” som det heter i branschen, rapporterar New York Times.
Missa inte: AI förändrar allt – utom i Sverige? Realtid
När stora AI-modeller som OpenAI, Google och kinesiska DeepSeek utvecklas till att söka svar genom att tänka själva ökar också antalet fel. Modellerna har främst blivit bättre på matematik och programmering, men sämre på rena fakta.
Hallucinationerna bara ökar
Tidigare hade AI-modellernas hallucinationer minskat över tid för varje ny version – men den trenden har nu börjat gå åt andra hållet.
Enligt OpenAI:s egna test PersonQA Benchmark, där frågor om kända personer ska besvaras, hallucinerade den kraftullaste modellen o3 med 33 procent – ungefär dubbelt så mycket som föregående modell. Den senaste modellen o4 hallucinerade ännu mer med hela 48 procent.
Modellerna, som består av komplexa matematiska system och analyserar enorma mängder data, kan helt enkelt inte avgöra vad som är sant eller falskt. I ett test var hallucinationer för nya AI-system uppe i hela 79 procent.

Senaste nytt
Svårt att förklara
Varför modellerna hallucinerar mer kan inte OpenAI själva riktigt svara på. Eftersom det rör sig om så stora mängder data är det omöjligt för en människa att själv kunna felsöka.
”Vi vet fortfarande inte riktigt exakt hur de här modellerna fungerar”, säger Hannaneh Hajishirzi, professor på University of Washington och forskare vid Allen Institute for Artificial Intelligence, till NYT.
Läs även: ”Företag löser fel problem” – AI-experten om varför projekten kraschar. Realtid TV
Ett problem med AI har varit att modellerna behövt stora mängder text att analyser. När mängden helt enkelt börjar ta slut, har man försökt träna modellerna genom ”trial-and-error”.
Det har fungerat bra för matematiska uppgifter, men sämre för faktauppgifter.
”Sättet de här systemen tränas på är att de börjar med att fokusera på en uppgift – och sedan glömmer andra uppgifter”, säger Laura Perez-Beltrachini, forskare på University of Edinburgh, till NYT.
Kan kosta miljarder
Ett annat problem är att när modellerna ska ”tänka igenom” problemen gör det steg för steg, vilket innebär att ett misstag i ett led kan leda till hallucinationer i efterföljande led – som sedan bara bygger vidare på varandra.
De potentiella problemen med AI som hallucinerar kan vara större än man tror. Enligt Deloitte Global Survey 2025, hade 47 procent av företagsanvändare tagit stora beslut baserat på hallucinerade uppgifter.
Enligt McKinsey AI Impact Report från samma år uppskattades de finansiella kostnaderna hänförliga till hallucinationer uppgå till 67,4 miljarder dollar.
När tekniken knackar på – vilka jobb står pall för AI-vågen?
AI är ett ämne som blir mer och mer vanligt i vår vardag.
Motverkar syftet
Att faktakolla AI blir i sig ett nytt slags arbete. Enligt uppskattningar lägger arbetare i snitt 4,3 timmar i veckan på att rätta till hallucinationer, vilket till viss del motverkar själva syftet med AI som en tidsbesparande åtgärd.
Hallucinationer kan också vara ett hot mot cybersäkerhet.
Farlig kod kan spridas via hallucinerade kodpaket som illvilliga aktörer kan registrera i ett nytt fenomen som kallas slopsquatting, rapporterar CSO Online.
Missa inte: ”Som en väldigt smart praktikant” – AI förändrar juristens vardag. Realtid

Mångårig ekonomijournalist. Tidigare på Fastighetsvärlden, Fri Köpenskap, Food Supply.

Mångårig ekonomijournalist. Tidigare på Fastighetsvärlden, Fri Köpenskap, Food Supply.










