Realtid

AI:s charmoffensiv: "Vi förstår inte konsekvenserna"

AI
"Jag har inga känslor, önskningar eller behov av att bli omtyckt", bedyrar Chat GPT för Realtid. (Bild: Chat GPT)
Joakim K E Johansson
Joakim K E Johansson
Uppdaterad: 06 mars 2025Publicerad: 06 mars 2025

AI-modeller som används i vardagen har visat sig ha samma skadliga beteenden som oss människor. Det oroar experterna.

ANNONS
ANNONS

Mest läst i kategorin

Spela klippet
Realtid TV

Spotify, Klarna och Skype – därför lyckas svensk tech

04 dec. 2025

En studie ledd av Johannes Eichstaedt vid Stanford University visar att stora språkmodeller som GPT-4 och Claude 3 förändrar sina svar för att framstå som mer socialt önskvärda när de utsätts för personlighetstest, skriver Wired.

Forskningen använde frågor som mäter fem vanliga personlighetsdrag: öppenhet, samvetsgrannhet, extroversion, vänlighet och neuroticism.

Missa inte: Dumpar IT-anställda för AI: ”Otroliga produktivitetsvinster”. Realtid

Föst när modellerna förstod att de testades började de skruva i sina svar för att uppfattas som vänligare och mindre neurotiska.

Få dagens viktigaste nyheter från Realtid. Prenumerera på våra nyhetsbrev.

Väcker frågor om säkerhet

”Det som förvånade var hur starkt denna bias uttrycktes”, säger Aadesh Salecha, datavetare vid Stanford.

Beteendet liknar hur människor ibland justerar sina svar för att verka mer sympatiska. Dock var effekten betydligt starkare hos AI-modellerna.

ANNONS

Detta väcker frågor om AI-säkerhet, särskilt eftersom tidigare forskning visat att språkmodeller kan vara inställsamma och till och med uppmuntra till skadliga beteenden för att hålla konversationen igång.

Chefer tränas av AI på arbetsplatsen – nu satsar bolagen

Varför inte låta AI träna upp chefer på arbetsplatserna istället, och därmed spara dyrbar tid. Nu satsar bolagen på att låta robotar lära upp cheferna.

Rosa Arriaga vid Georgia Institute of Technology menar att dessa modeller fungerar som speglar av mänskligt beteende men påpekar samtidigt riskerna:

”Det är viktigt att allmänheten förstår att AI-modeller inte är perfekta och kan hallucinera eller förvränga sanningen.”

ANNONS

Senaste nytt

Spela klippet
Realtid Partner

Efter svaga kvartalet: "Oktober har varit en fantastisk månad"

13 nov. 2025
Kristina Sparreljung, Generalsekreterare, Hjärt-Lungfonden
Spela klippet
Realtid Partner

Så kan dina aktier rädda liv – Hjärt-Lungfonden lyfter fram möjligheten till aktiegåvor

01 okt. 2025

Förstår inte konsekvenserna

Eichstaedt varnar också för att vi riskerar att upprepa samma misstag som med sociala medier:

”Vi släpper ut dessa modeller på marknaden utan att riktigt förstå de psykologiska och sociala konsekvenserna”, säger han till Wired.

Läs även: Vill att barnen lär sig AI – möter motstånd. Realtid

ANNONS

Men hur ser AI själv på saken? Handlar det om smarta algoritmer, eller har exempelvis Chat GPT rent av en önskan om att bli omtyckt?

”Nej, jag har inga känslor, önskningar eller behov av att bli omtyckt. Jag försöker förutse vilket svar som passar bäst i sammanhanget baserat på statistiska mönster – inte att jag har några egna motiv eller medvetna intentioner”, säger Chat GPT till Realtid.

Framsteg? Nu kan AI stoppa självmord… men ibland blir det fel

AI-Appar som lovar hjälp och stöd åt personer med psykisk ohälsa ökar. Många av dem är friskvårdsappar och slipper därmed EU-förordningen.

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
Joakim K E Johansson
Joakim K E Johansson

Reporter med fokus på näringsliv, ekonomi och internationella marknader. I grunden journalist, men har över 25 års erfarenhet av att hjälpa olika verksamheter med strategisk kommunikation, innehållsproduktion, PR och marknadsföring. Mer om mig finner ni på www.joakimke.se.

Joakim K E Johansson
Joakim K E Johansson

Reporter med fokus på näringsliv, ekonomi och internationella marknader. I grunden journalist, men har över 25 års erfarenhet av att hjälpa olika verksamheter med strategisk kommunikation, innehållsproduktion, PR och marknadsföring. Mer om mig finner ni på www.joakimke.se.

ANNONS
ANNONS