De som arbetar närmast artificiell intelligens använder tekniken mindre än de flesta. Det borde få oss att fundera.
AI-arbetare varnar för teknik de själva bygger


Mest läst i kategorin
Stella Dong är maskininlärningsingenjör och medgrundar ett AI-företag, men när hon ska skriva ett mejl föredrar hon att knacka in varje ord själv. ”Jag litar inte på att AI skriver utkast själv”, säger Dong till Wall Street Journal.
Dong är långt ifrån ensam. AI-experter håller överraskande ofta fast vid gammaldags metoder. Från att anteckna för hand till att manuellt fylla i kalendrar.
Svenska AI-bolag exploderar – så vände techvågen
Sverige får fyra till fem AI-unicorns på rekordtid. Bakom explosionen ligger samma mönster som vid Skype, Spotify och Klarna.
Ser bristerna inifrån
För många som tränar AI-modeller har djupare kunskap lett till djupare misstro. Krista Pawloski arbetar som AI-granskare på Amazon Mechanical Turk, där hon bedömer kvaliteten på AI-genererat innehåll.

För två år sedan upptäckte hon av en slump att ”mooncricket” var en rasistisk förolämpning – efter att nästan ha godkänt en tweet med ordet, berättar hon för The Guardian.
Upptäckten fick henne att inse omfattningen av möjliga fel. Hur många gånger hade hon och tusentals kollegor missat liknande saker? Idag använder Pawloski inte generativ AI privat och förbjuder sin tonårsdotter att använda verktyg som ChatGPT.
Missa inte:
Robotrevolutionen lyfter Kina: 15 minuter blev 30 sekunder. Realtid
Ett dussintal AI-granskare som The Guardian talat med uppger att de aktivt avråder vänner och familj från att använda generativ AI, eller åtminstone försöker utbilda dem om riskerna. En granskare som arbetar med Googles AI Overviews har förbjudit sin tioåriga dotter att använda chatbotar.
”Hon måste lära sig kritiskt tänkande först, annars kan hon inte bedöma om resultatet är bra.”
Senaste nytt
Fart före kvalitet
Misstron beror främst på företagens ensidiga fokus på snabbhet.
”Vi förväntas göra modellerna bättre, men får ofta vaga instruktioner, minimal träning och orealistiska tidsramar”, säger Brook Hansen, som arbetat med dataträning sedan 2010 till The Guardian.
Alex Mahadevan, chef för mediekompetensorganisationen MediaWise, ser problemet som systematiskt.
”Det visar att incitamenten för snabb lansering övertrumfar noggrann validering”, säger han.
När de som gör AI pålitlig är de som litar minst på tekniken signalerar det enligt honom att återkoppling från granskare ignoreras.
Läs även:
Big Short-Burry om AI: ”Härlig dårskap”. Dagens PS
En granskning från organisationen NewsGuard visar att de tio största AI-modellerna år 2025 aldrig svarar ”vet inte” – en minskning från 31 procent föregående år.
Samtidigt har sannolikheten att de sprider falsk information nästan fördubblats från 18 till 35 procent.
Att välja bort effektivitet
McKinsey Global Institute uppskattar att befintlig teknik skulle kunna utföra 57 procent av amerikanska arbetstimmar.
Missa inte:
Google slår tillbaka – Nvidia tvingas försvara sig. Realtid
Men Lareina Yee, senior partner på konsultföretaget, menar att företag medvetet kan välja att inte maximera automation. Det för att träna juniora medarbetare och säkerställa att anställda kan granska AI:s resultat.
För Ziyi Liu, AI-forskarpraktikant på Microsoft, handlar valet att anteckna själv om kontroll.
”Jag vill vara den typen av person som håller sitt arbete strukturerat och tydligt. Jag vill inte titta på en transkription – jag vill bara göra det själv.”, säger hon till WSJ.

Mångårig ekonomijournalist. Tidigare på Fastighetsvärlden, Fri Köpenskap, Food Supply.

Mångårig ekonomijournalist. Tidigare på Fastighetsvärlden, Fri Köpenskap, Food Supply.











