Realtid

50 procent billigare AI – ny teknik kapar kostnaderna

Nu har man hittat enlösning för att få ner arbetet som ai kräver och därmed kapar kostnaderna. (Foto: Canva)
Nu har man hittat enlösning för att få ner arbetet som ai kräver och därmed kapar kostnaderna. (Foto: Canva)
Åsa Wallenrud
Åsa Wallenrud
Uppdaterad: 01 okt. 2025Publicerad: 02 okt. 2025

Den här dolda AI-tekniken kan halvera kostnaden att driva framtidens språkmodeller. Ett kinesiskt labbs genombrott sparar miljoner.

ANNONS
ANNONS

Mest läst i kategorin

Ett kinesiskt AI-laboratorium har lanserat en experimentell version av sin senaste språkmodell som kan leda till dramatiskt sänkta kostnader för att köra AI-system.

Genom att utforska en banbrytande beräkningsteknik som kallas ”sparse attention” har företaget DeepSeek lyckats minska API-priserna med 50 procent, vilket visar på stora effektivitetsvinster, skriver Ars Technica.

Utvecklingen är särskilt relevant för företag som kämpar med de massiva beräkningsresurser som krävs för att hantera långa textsekvenser och komplexa konversationer, ett grundläggande problem inom AI.

Teknikjättarna vann: Nya AI-lagen slopar avgörande säkerhetskrav

Den mäktiga tech-industrin har fått sin vilja igenom. Kaliforniens nya AI-lag skrotar de tuffaste säkerhetskraven efter intensiv lobbyism.

Attentionsflaskhalsen som slukar resurser

Anledningen till att AI-modeller som ChatGPT saktar ner vid längre diskussioner beror på en grundläggande matematisk utmaning.

Att bearbeta långa textsekvenser kräver enorma beräkningsresurser, trots de effektiviseringar som redan används. I AI-världen syftar termen ’attention’ på en mjukvaruteknik som avgör vilka ord i en text som är mest relevanta för att förstå varandra.

Det är dessa relationer som bygger upp kontext och skapar mening i språket.

ANNONS

Den ursprungliga Transformer-arkitekturen från 2017 beräknade relationen mellan varje ord i en fråga och alla andra ord. Med en fråga på 1 000 ord krävdes 1 000 gånger 1 000 jämförelser, vilket motsvarar en miljon beräkningsoperationer.

Om antalet ord ökar till 10 000 ord stiger antalet operationer till 100 miljoner. Kostnaden växer kvadratiskt, vilket har skapat en fundamental flaskhals.

Även om ledande amerikanska teknikjättar kan kasta mer hårdvara på problemet, har DeepSeek extra motivation att få ut mer prestanda ur mindre kisel, delvis på grund av exportrestriktioner som begränsar tillgången på avancerade AI-chip.

ANNONS

Senaste nytt

Spela klippet
Realtid Partner

Efter svaga kvartalet: "Oktober har varit en fantastisk månad"

13 nov. 2025
Kristina Sparreljung, Generalsekreterare, Hjärt-Lungfonden
Spela klippet
Realtid Partner

Så kan dina aktier rädda liv – Hjärt-Lungfonden lyfter fram möjligheten till aktiegåvor

01 okt. 2025

DeepSeek utmanar giganterna med ny teknik

DeepSeek, ett kinesiskt AI-företag som tidigare har uppmärksammats för att matcha toppmodeller med en träningskostnad på endast cirka 63 miljoner svenska kronor, har nu släppt en experimentell version av sin språkmodell, DeepSeek-V3.2-Exp.

Modellen introducerar vad de kallar ”DeepSeek Sparse Attention” (DSA).

”Sparse attention” är en teknik som går ut på att AI-modellen istället för att jämföra varje ord med alla andra ord, bara undersöker en undergrupp av ordrelationer som den bedömer vara mest relevanta.

ANNONS

Till exempel, när ord nummer 5 000 i ett dokument bearbetas, kanske modellen bara kontrollerar dess relation med 100 noggrant utvalda tidigare ord istället för alla 4 999 föregående ord.

OpenAI har använt liknande tekniker i sina modeller, men DeepSeek hävdar att deras version, DSA, uppnår ”fine-grained sparse attention for the first time” (finmaskig sparse attention för första gången).

Modellen uppnår detta genom en liten neural nätverkskomponent som DeepSeek kallar en ”lightning indexer”. Denna komponent poängsätter relevansen mellan ordpar och väljer ut de 2 048 viktigaste anslutningarna för varje ord, vilket gör att modellen kan hoppa över anslutningar utan att försämra förståelsen.

Experterna slår larm: Svenskarna är helt oskyddade

Det finns en slående diskrepans mellan hur svenskar ser på sin digitala förmåga och hur verkligheten ser ut, visar en ny undersökning.

API-priserna halveras för användarna

DeepSeek uppger att preliminära tester visar att API-kostnaderna kan reduceras med så mycket som hälften i situationer med lång kontext. Som ett direkt bevis på effektivitetsvinsterna har företaget sänkt sina API-priser med 50 procent.

DeepSeek-V3.2-Exp bygger på den tidigare modellen V3.1-Terminus men inkorporerar den nya sparse attention-mekanismen. Jämförande mätningar från företaget visar att den experimentella modellen presterar jämförbart med sin föregångare trots att den använder den nya tekniken.

Det är värt att notera att DeepSeek har släppt modellen med öppen källkod och öppna vikter under MIT-licensen, vilket gör att andra forskare kan bygga vidare på arbetet. Om den här forskningen håller vad den lovar kan förbättringar av ”sparse attention”-tekniken dramatiskt minska AI-inferenskostnaderna över tid.

ANNONS

Så kommer AI-chefen att sålla bort dig

Den initiala anställningsintervjun kan snart genomgå en dramatisk förändring för arbetssökande inom alla branscher.

Missa inte:

Rapporten: Därför väljer flest att pensionera sig i Portugal. News 55

Oroande gap mellan män och kvinnors sparande. E55

Miljardaffär för svenskt AI-bolag. Dagens PS

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig [email protected]

Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig [email protected]

ANNONS
ANNONS