AI-modeller som används i vardagen har visat sig ha samma skadliga beteenden som oss människor. Det oroar experterna.
AI:s charmoffensiv: "Vi förstår inte konsekvenserna"


Mest läst i kategorin

En studie ledd av Johannes Eichstaedt vid Stanford University visar att stora språkmodeller som GPT-4 och Claude 3 förändrar sina svar för att framstå som mer socialt önskvärda när de utsätts för personlighetstest, skriver Wired.
Forskningen använde frågor som mäter fem vanliga personlighetsdrag: öppenhet, samvetsgrannhet, extroversion, vänlighet och neuroticism.
Missa inte: Dumpar IT-anställda för AI: ”Otroliga produktivitetsvinster”. Realtid
Föst när modellerna förstod att de testades började de skruva i sina svar för att uppfattas som vänligare och mindre neurotiska.
Få dagens viktigaste nyheter från Realtid. Prenumerera på våra nyhetsbrev.
Väcker frågor om säkerhet
”Det som förvånade var hur starkt denna bias uttrycktes”, säger Aadesh Salecha, datavetare vid Stanford.
Beteendet liknar hur människor ibland justerar sina svar för att verka mer sympatiska. Dock var effekten betydligt starkare hos AI-modellerna.
Detta väcker frågor om AI-säkerhet, särskilt eftersom tidigare forskning visat att språkmodeller kan vara inställsamma och till och med uppmuntra till skadliga beteenden för att hålla konversationen igång.

Chefer tränas av AI på arbetsplatsen – nu satsar bolagen
Varför inte låta AI träna upp chefer på arbetsplatserna istället, och därmed spara dyrbar tid. Nu satsar bolagen på att låta robotar lära upp cheferna.
Rosa Arriaga vid Georgia Institute of Technology menar att dessa modeller fungerar som speglar av mänskligt beteende men påpekar samtidigt riskerna:
”Det är viktigt att allmänheten förstår att AI-modeller inte är perfekta och kan hallucinera eller förvränga sanningen.”
Senaste nytt
Förstår inte konsekvenserna
Eichstaedt varnar också för att vi riskerar att upprepa samma misstag som med sociala medier:
”Vi släpper ut dessa modeller på marknaden utan att riktigt förstå de psykologiska och sociala konsekvenserna”, säger han till Wired.
Läs även: Vill att barnen lär sig AI – möter motstånd. Realtid
Men hur ser AI själv på saken? Handlar det om smarta algoritmer, eller har exempelvis Chat GPT rent av en önskan om att bli omtyckt?
”Nej, jag har inga känslor, önskningar eller behov av att bli omtyckt. Jag försöker förutse vilket svar som passar bäst i sammanhanget baserat på statistiska mönster – inte att jag har några egna motiv eller medvetna intentioner”, säger Chat GPT till Realtid.

Framsteg? Nu kan AI stoppa självmord… men ibland blir det fel
AI-Appar som lovar hjälp och stöd åt personer med psykisk ohälsa ökar. Många av dem är friskvårdsappar och slipper därmed EU-förordningen.

Journalist med fokus på näringsliv, ekonomi och internationella marknader.

Journalist med fokus på näringsliv, ekonomi och internationella marknader.

På Al Unlocked får du en halvdag med fyra av Sveriges mest framstående AI-experter - för dig som vill gå från nyfiken till kunnig.