Realtid

AI:s charmoffensiv: "Vi förstår inte konsekvenserna"

AI
"Jag har inga känslor, önskningar eller behov av att bli omtyckt", bedyrar Chat GPT för Realtid. (Bild: Chat GPT)
Joakim K E Johansson
Joakim K E Johansson
Uppdaterad: 06 mars 2025Publicerad: 06 mars 2025

AI-modeller som används i vardagen har visat sig ha samma skadliga beteenden som oss människor. Det oroar experterna.

ANNONS
ANNONS

Mest läst i kategorin

En studie ledd av Johannes Eichstaedt vid Stanford University visar att stora språkmodeller som GPT-4 och Claude 3 förändrar sina svar för att framstå som mer socialt önskvärda när de utsätts för personlighetstest, skriver Wired.

Forskningen använde frågor som mäter fem vanliga personlighetsdrag: öppenhet, samvetsgrannhet, extroversion, vänlighet och neuroticism.

Missa inte: Dumpar IT-anställda för AI: ”Otroliga produktivitetsvinster”. Realtid

Föst när modellerna förstod att de testades började de skruva i sina svar för att uppfattas som vänligare och mindre neurotiska.

Få dagens viktigaste nyheter från Realtid. Prenumerera på våra nyhetsbrev.

Väcker frågor om säkerhet

”Det som förvånade var hur starkt denna bias uttrycktes”, säger Aadesh Salecha, datavetare vid Stanford.

Beteendet liknar hur människor ibland justerar sina svar för att verka mer sympatiska. Dock var effekten betydligt starkare hos AI-modellerna.

ANNONS

Detta väcker frågor om AI-säkerhet, särskilt eftersom tidigare forskning visat att språkmodeller kan vara inställsamma och till och med uppmuntra till skadliga beteenden för att hålla konversationen igång.

Chefer tränas av AI på arbetsplatsen – nu satsar bolagen

Varför inte låta AI träna upp chefer på arbetsplatserna istället, och därmed spara dyrbar tid. Nu satsar bolagen på att låta robotar lära upp cheferna.

Rosa Arriaga vid Georgia Institute of Technology menar att dessa modeller fungerar som speglar av mänskligt beteende men påpekar samtidigt riskerna:

”Det är viktigt att allmänheten förstår att AI-modeller inte är perfekta och kan hallucinera eller förvränga sanningen.”

ANNONS

Senaste nytt

relevance
Spela klippet
Affärer

Fri journalistik ger starka resultat för Relevance Communication

14 feb. 2025
Spela klippet
Realtid Partner

Relevance Communication: Starkare journalistik tillsammans

23 dec. 2024

Förstår inte konsekvenserna

Eichstaedt varnar också för att vi riskerar att upprepa samma misstag som med sociala medier:

”Vi släpper ut dessa modeller på marknaden utan att riktigt förstå de psykologiska och sociala konsekvenserna”, säger han till Wired.

Läs även: Vill att barnen lär sig AI – möter motstånd. Realtid

ANNONS

Men hur ser AI själv på saken? Handlar det om smarta algoritmer, eller har exempelvis Chat GPT rent av en önskan om att bli omtyckt?

”Nej, jag har inga känslor, önskningar eller behov av att bli omtyckt. Jag försöker förutse vilket svar som passar bäst i sammanhanget baserat på statistiska mönster – inte att jag har några egna motiv eller medvetna intentioner”, säger Chat GPT till Realtid.

Framsteg? Nu kan AI stoppa självmord… men ibland blir det fel

AI-Appar som lovar hjälp och stöd åt personer med psykisk ohälsa ökar. Många av dem är friskvårdsappar och slipper därmed EU-förordningen.

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
Joakim K E Johansson
Joakim K E Johansson

Journalist med fokus på näringsliv, ekonomi och internationella marknader.

Joakim K E Johansson
Joakim K E Johansson

Journalist med fokus på näringsliv, ekonomi och internationella marknader.

ANNONS
Lär dig av AI-experterna

På Al Unlocked får du en halvdag med fyra av Sveriges mest framstående AI-experter - för dig som vill gå från nyfiken till kunnig.

Boka här
ANNONS
ANNONS

Senaste nytt

Spela klippet
Börs & finans

Ekonomin vänder uppåt: "Märks inte för alla ännu"

22 mars 2025
Spela klippet
Bank & Fintech

Chocken: Din bank kanske inte är så säker som du tror

22 mars 2025
Spela klippet
Juridik

AI – en juridisk superkraft som kräver mänsklig eftertanke

21 mars 2025
ANNONS
ANNONS