AI införs i snabb takt, men ofta utan eftertanke. Det menar Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet.
Professorn varnar: "AI-first" är en farlig logik


Mest läst i kategorin
När företag och myndigheter är snabba med att införa AI riskerar de att missa de mest grundläggande frågorna:
Varför tekniken behövs, vilka konsekvenser den får och vem som bär ansvaret när något går fel. Det säger Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet och en av Europas mest inflytelserika röster inom AI‑etik.
Läs också:
AI riskerar att bli nästa kostnadsfälla för svenska företag – Realtid
Hon ser en utveckling där både företag och offentliga aktörer springer före och tänker efteråt.
”AI-first är en farlig motivation”
Dignum beskriver två krafter som driver på ogenomtänkta beslut. Den första är vad hon kallar AI-first: en reflexmässig vilja att använda AI bara för att andra gör det.
”Många övertygar sig själva om att om de inte använder AI så gör de något fel. Det är en farlig motivation. Då blir tekniken ett mål i sig, i stället för ett verktyg för att lösa ett verkligt problem”, säger hon.

Dignum menar att det är värt att ta ett steg tillbaka och fråga sig: Varför behöver vi AI? Vad vinner vi? Vad riskerar vi att förlora?
Läs också:
”Blaskig vinter” nästa anhalt för AI – Realtid
Det är en mer grundad och konsekvensmedveten process, säger hon.
Senaste nytt
Geopolitiken pressar bort etiken
Den andra kraften är politisk. Dignum menar att den globala utvecklingen har skapat en miljö där reglering och etiska överväganden tonas ned.
”Sedan den nuvarande amerikanska administrationen tillträdde har det blivit mycket mer känslan att man inte ska sätta några begränsningar”, säger hon.
”Det påverkar även EU och andra institutioner som tidigare drivit en etisk linje.”
Läs också:
Mjukvaruaktierna utmanas av AI – ”lägsta nivån sedan 2002” – Dagens PS
Vilka etiska utmaningar står vi inför?
När Dignum beskriver de etiska riskerna återkommer tre huvudområden.
Den första handlar om hur AI‑system behandlar människor. Bristande rättvisa och skeva träningsdata gör att vissa grupper systematiskt missgynnas.
Missa inte:
Elon Musks fusion bäddar för mega-börsnotering. Dagens PS
Hon nämner det klassiska exemplet där ansiktsigenkänning tränad på vita män får betydligt sämre träffsäkerhet på svarta kvinnor. Men problemen kan också vara mer subtila.
”All data är något som någon valt att samla in”, konstaterar Dignum.
Det innebär att varje dataset bär spår av den som samlat in det: prioriteringar, blinda fläckar och kontext.
Miljö- och resurskostnader
Det andra området handlar om miljö- och resurskostnader.
Dignum betonar att AI inte är en immateriell eller ”gratis” teknik, utan något som kräver stora mängder energi, vatten och naturresurser, både när modeller tränas och när de används.
Läs även:
Gästfrihet blir företagens vapen mot AI. Dagens PS
Hon beskriver det som en etisk dimension som ofta glöms bort, trots att de underliggande systemen är resurskrävande och påverkar hur hållbar tekniken egentligen är.
Ansvar när AI agerar själv
Det tredje området handlar om ansvar. När AI‑system inte bara ger råd utan också agerar, något som börjar bli vanligare, blir ansvarsfördelningen snabbt oklar.
Dignum beskriver hur utvecklingen nu går mot automatiserade agenter som agerar direkt, utan att användaren godkänner varje steg.
Missa inte:
Människor portas från nytt socialt nätverk. Dagens PS
Om ett sådant system köper fel flygbiljett, vem bär då ansvaret? Användaren som gav systemet tillgång till sitt kort? Utvecklaren som byggt agenten? Eller leverantören som säljer tjänsten?
”Det är inte reglerat, och systemen kommer att börja interagera med varandra. Vi vet inte vad det innebär”, säger hon.
Hon lyfter också medicinska system som ett konkret exempel på hur fel det kan bli.
Ett diagnosverktyg tränat på amerikanska patientdata kan missa mönster som är vanligare i Sverige, som högre förekomst av laktosintolerans.
”Det händer hela tiden”, säger hon. ”Och det är mycket vanligare än man tror.”
Det händer redan och det händer ofta
Dignum ser de etiska utmaningar hela tiden.
”Det handlar om system som fungerar sämre i en annan demografi än den de tränats på. Ett medicinskt system tränat i USA kan missa viktiga mönster i Sverige. Det är mycket vanligare än man tror”, säger hon.
Som företag är det viktigt att vara väl förberedd innan man hoppar på AI-tåget. Det finns många som säljer AI-lösningar i glänsande förpackningar. Det är lätt att bli imponerad.
”Ett första steg är att utbilda organisationen så att man kan ställa rätt frågor vid en upphandling”, menar Dignum. ”Det är också viktigt att granska träningsdata och dess relevans för den egna verksamheten.”
Ska vi vara oroliga framåt?
Dignum är inte alarmistisk men realistisk.
”Det kommer att gå fel. Jag hoppas på att det inte blir allvarligt, men det kommer att hända”, säger hon. ”Och då kommer vi att inse att diskussionen om etik borde ha tagits tidigare.”

Ekonomijournalist med inriktning på ekonomi och breda samhällsfrågor.

Ekonomijournalist med inriktning på ekonomi och breda samhällsfrågor.












