05 feb. 2026

Realtid

Professorn varnar: "AI-first" är en farlig logik

Porträtt, Virginia Dignum samt bild som visar AI
Virginia Dignum, professor i ansvarsfull AI, ser hur både företag och myndigheter inför AI utan att ställa de grundläggande frågorna (Foto: Privat/Vertigo3D).
Karin Andersen
Karin Andersen
Uppdaterad: 05 feb. 2026Publicerad: 05 feb. 2026

AI införs i snabb takt, men ofta utan eftertanke. Det menar Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet.

ANNONS
ANNONS

Mest läst i kategorin

När företag och myndigheter är snabba med att införa AI riskerar de att missa de mest grundläggande frågorna:

Varför tekniken behövs, vilka konsekvenser den får och vem som bär ansvaret när något går fel. Det säger Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet och en av Europas mest inflytelserika röster inom AI‑etik.

Läs också:
AI riskerar att bli nästa kostnadsfälla för svenska företag – Realtid

Hon ser en utveckling där både företag och offentliga aktörer springer före och tänker efteråt.

”AI-first är en farlig motivation”

Dignum beskriver två krafter som driver på ogenomtänkta beslut. Den första är vad hon kallar AI-first: en reflexmässig vilja att använda AI bara för att andra gör det.

”Många övertygar sig själva om att om de inte använder AI så gör de något fel. Det är en farlig motivation. Då blir tekniken ett mål i sig, i stället för ett verktyg för att lösa ett verkligt problem”, säger hon.

Många drivs av en vilja att bara använda för att de går att göra det. (Foto: AP Photo/Michael Dwyer)
ANNONS

Dignum menar att det är värt att ta ett steg tillbaka och fråga sig: Varför behöver vi AI? Vad vinner vi? Vad riskerar vi att förlora?

Läs också:
”Blaskig vinter” nästa anhalt för AI – Realtid

Det är en mer grundad och konsekvensmedveten process, säger hon.

ANNONS

Geopolitiken pressar bort etiken

Den andra kraften är politisk. Dignum menar att den globala utvecklingen har skapat en miljö där reglering och etiska överväganden tonas ned.

”Sedan den nuvarande amerikanska administrationen tillträdde har det blivit mycket mer känslan att man inte ska sätta några begränsningar”, säger hon.

”Det påverkar även EU och andra institutioner som tidigare drivit en etisk linje.”

Läs också:
Mjukvaruaktierna utmanas av AI – ”lägsta nivån sedan 2002” – Dagens PS

ANNONS

Vilka etiska utmaningar står vi inför?

När Dignum beskriver de etiska riskerna återkommer tre huvudområden.

Den första handlar om hur AI‑system behandlar människor. Bristande rättvisa och skeva träningsdata gör att vissa grupper systematiskt missgynnas.

Missa inte:
Elon Musks fusion bäddar för mega-börsnotering. Dagens PS

Hon nämner det klassiska exemplet där ansiktsigenkänning tränad på vita män får betydligt sämre träffsäkerhet på svarta kvinnor. Men problemen kan också vara mer subtila.

”All data är något som någon valt att samla in”, konstaterar Dignum.

Det innebär att varje dataset bär spår av den som samlat in det: prioriteringar, blinda fläckar och kontext.

Miljö- och resurskostnader

ANNONS

Det andra området handlar om miljö- och resurskostnader.

Dignum betonar att AI inte är en immateriell eller ”gratis” teknik, utan något som kräver stora mängder energi, vatten och naturresurser, både när modeller tränas och när de används.

Läs även:
Gästfrihet blir företagens vapen mot AI. Dagens PS

Hon beskriver det som en etisk dimension som ofta glöms bort, trots att de underliggande systemen är resurskrävande och påverkar hur hållbar tekniken egentligen är.

Ansvar när AI agerar själv

Det tredje området handlar om ansvar. När AI‑system inte bara ger råd utan också agerar, något som börjar bli vanligare, blir ansvarsfördelningen snabbt oklar.

Dignum beskriver hur utvecklingen nu går mot automatiserade agenter som agerar direkt, utan att användaren godkänner varje steg.

Missa inte:
Människor portas från nytt socialt nätverk. Dagens PS

ANNONS

Om ett sådant system köper fel flygbiljett, vem bär då ansvaret? Användaren som gav systemet tillgång till sitt kort? Utvecklaren som byggt agenten? Eller leverantören som säljer tjänsten?

”Det är inte reglerat, och systemen kommer att börja interagera med varandra. Vi vet inte vad det innebär”, säger hon.

Hon lyfter också medicinska system som ett konkret exempel på hur fel det kan bli.

Ett diagnosverktyg tränat på amerikanska patientdata kan missa mönster som är vanligare i Sverige, som högre förekomst av laktosintolerans.

”Det händer hela tiden”, säger hon. ”Och det är mycket vanligare än man tror.”

Det händer redan och det händer ofta

Dignum ser de etiska utmaningar hela tiden.

”Det handlar om system som fungerar sämre i en annan demografi än den de tränats på. Ett medicinskt system tränat i USA kan missa viktiga mönster i Sverige. Det är mycket vanligare än man tror”, säger hon.

ANNONS

Som företag är det viktigt att vara väl förberedd innan man hoppar på AI-tåget. Det finns många som säljer AI-lösningar i glänsande förpackningar. Det är lätt att bli imponerad.

”Ett första steg är att utbilda organisationen så att man kan ställa rätt frågor vid en upphandling”, menar Dignum. ”Det är också viktigt att granska träningsdata och dess relevans för den egna verksamheten.”

Ska vi vara oroliga framåt?

Dignum är inte alarmistisk men realistisk.

”Det kommer att gå fel. Jag hoppas på att det inte blir allvarligt, men det kommer att hända”, säger hon. ”Och då kommer vi att inse att diskussionen om etik borde ha tagits tidigare.”

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
Karin Andersen
Karin Andersen

Ekonomijournalist med inriktning på ekonomi och breda samhällsfrågor.

Karin Andersen
Karin Andersen

Ekonomijournalist med inriktning på ekonomi och breda samhällsfrågor.

Senaste lediga jobben

ANNONS
ANNONS