Googles AI-genererade svar i sökresultaten är korrekta ungefär nio gånger av tio, men med fem biljoner sökningar per år innebär det tiotals miljoner felaktiga svar varje timme.
Googles AI sprider miljoner felaktigheter i timmen

Det visar en ny analys utförd av AI-startupen Oumi på uppdrag av The New York Times.
Missa inte: Finansministern kallar till krismöte – oro för ny AI. Realtid
Undersökningen, som använde det branschstandardiserade testet SimpleQA, granskade 4 326 Google-sökningar i två omgångar. Först i oktober med Gemini 2-tekniken och sedan i februari efter uppgraderingen till Gemini 3.
Resultaten visade att AI Overviews, de AI-genererade sammanfattningar som sedan 2024 visas överst i Googles sökresultat, var korrekta 85 procent av gångerna med Gemini 2 och 91 procent med Gemini 3.
En ström av felaktiga svar
Siffran kan låta hög, men i praktiken innebär den hundratusentals felaktiga svar varje minut.
Det är närmast att beskriva som en ”desinformationskris”. Forskning visar att bara åtta procent av användarna faktiskt dubbelkollar svar från AI-system, skriver Futurism.
Läs även: OpenAI:s vd Sam Altman stämplas som sociopat och bluff. Dagens PS
Fenomenet har av forskare kallats ”kognitiv kapitulation”, användare tenderar att lita på AI:ns svar även när de är felaktiga.
Analysen avslöjade också att mer än hälften av de korrekta svaren var vad Oumi kallar ”ogrundade”, det vill säga att de webbplatser som AI-svaren länkade till som källor inte fullt ut stödde den information som gavs.
Med Gemini 2 var andelen ogrundade svar 37 procent, men med Gemini 3 steg siffran till 56 procent. Det innebär att även när svaret är korrekt har användaren svårt att verifiera det.
Går att manipulera systemet
Bland källorna som AI Overviews hänvisade till återfanns Facebook och Reddit som den andra respektive fjärde mest citerade.
Missa inte: ”Konkurrenten äter deras lunch”: Big Short-Burry tar sikte på Palantir. Realtid
Systemet visade sig även vara sårbart för manipulation. En journalist vid BBC-podden ”The Interface” publicerade ett fejkat blogginlägg och fick Google att presentera den fabricerade informationen som fakta.
Google slår ifrån sig
Google avfärdade analysen.
”Den här studien har allvarliga brister. Den speglar inte vad folk faktiskt söker på Google”, säger Googles talesperson Ned Adriance till New York Times.
Läs även: Google passerar drömgräns – tvivlarna har tystnat. Dagens PS
Företaget menar att SimpleQA-testet, som är framtaget av konkurrenten OpenAI, i sig innehåller felaktig information.
I AI-branschen är 90 procents korrekthet inte ens anmärkningsvärt dåligt, företaget har själv publicerat tester där modeller utan sökverktyg hamnar på 60–80 procent. Men i större skala börjar alltså misstagen att hopa sig.





