AI-modeller som används i vardagen har visat sig ha samma skadliga beteenden som oss människor. Det oroar experterna.
AI:s charmoffensiv: "Vi förstår inte konsekvenserna"


Mest läst i kategorin

AI-startup kan få jättevärdering – vill ta in mer pengar
Aptiten för den amerikanska AI-startupen Harvey tycks bara öka. Nu talas det om en ny hög värdering i en ny finansieringsrunda. Den snabbväxande startupen Harvey utvecklar AI-program för jurister och stora advokatbyråer. Det har man lyckats bra med. Det finns samtal om att ta in omkring 200 miljoner dollar i nytt kapital till en värdering …

Hon leder en av Sveriges största AI-satsningar: "Kommer att gå fel"
AI införs i snabb takt, men ofta utan eftertanke. Det menar Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet. När företag och myndigheter är snabba med att införa AI riskerar de att missa de mest grundläggande frågorna: Varför tekniken behövs, vilka konsekvenser den får och vem som bär ansvaret när något går fel. Det …

Förnybar energi utsatt för hackerattack – nära blackout
Mer än 30 vind- och solkraftsparker i Polen utsattes för samordnade cyberattacker i slutet av december, rapporterar det polska cybersäkerhetsorganet CERT Polska. Även en stor kraftvärmeanläggning och ett tillverkningsföretag drabbades. Attackerna ägde rum den 29 december 2025 och har spårats till hackergruppen Static Tundra, som kopplas till Rysslands säkerhetstjänst FSB:s Center 16-enhet, det skriver Hacker …

Fyra hot kan spräcka historiens största bubbla
USA:s ekonomiska tillväxt drivs nu främst av massiva investeringar i AI-infrastruktur. Men enligt en ny akademisk studie riskerar denna satsning att bli en av de största finansbubblorna i modern tid. Sedan ChatGPT lanserades i november 2022 har AI-industrin exploderat. Nvidia, som producerar 94 procent av de GPU-chips som AI-industrin behöver, har nått ett börsvärde på …

Anthropic hånar OpenAI:s reklam – med egen reklam
Anthropic har lanserat en provokativ annonskampanj inför Super Bowl som riktar direkt kritik mot OpenAI:s planer på att införa reklam i ChatGPT. Det har retat up OpenAI:s vd Sam Altman. Konkurrensen inom artificiell intelligens har tagit en personlig vändning. I veckan hamnade OpenAI och Anthropic, två av de största namnen inom AI, i en högprofilerad …
En studie ledd av Johannes Eichstaedt vid Stanford University visar att stora språkmodeller som GPT-4 och Claude 3 förändrar sina svar för att framstå som mer socialt önskvärda när de utsätts för personlighetstest, skriver Wired.
Forskningen använde frågor som mäter fem vanliga personlighetsdrag: öppenhet, samvetsgrannhet, extroversion, vänlighet och neuroticism.
Missa inte: Dumpar IT-anställda för AI: ”Otroliga produktivitetsvinster”. Realtid
Föst när modellerna förstod att de testades började de skruva i sina svar för att uppfattas som vänligare och mindre neurotiska.
Få dagens viktigaste nyheter från Realtid. Prenumerera på våra nyhetsbrev.
Väcker frågor om säkerhet
”Det som förvånade var hur starkt denna bias uttrycktes”, säger Aadesh Salecha, datavetare vid Stanford.
Beteendet liknar hur människor ibland justerar sina svar för att verka mer sympatiska. Dock var effekten betydligt starkare hos AI-modellerna.
Detta väcker frågor om AI-säkerhet, särskilt eftersom tidigare forskning visat att språkmodeller kan vara inställsamma och till och med uppmuntra till skadliga beteenden för att hålla konversationen igång.
Chefer tränas av AI på arbetsplatsen – nu satsar bolagen
Varför inte låta AI träna upp chefer på arbetsplatserna istället, och därmed spara dyrbar tid. Nu satsar bolagen på att låta robotar lära upp cheferna.
Rosa Arriaga vid Georgia Institute of Technology menar att dessa modeller fungerar som speglar av mänskligt beteende men påpekar samtidigt riskerna:
”Det är viktigt att allmänheten förstår att AI-modeller inte är perfekta och kan hallucinera eller förvränga sanningen.”
Senaste nytt
Företagen tvingas agera mot löneskillnader

Persondata, KYC och betalningar: vad du bör kräva av den digitala plattform du väljer

Ska du välja sparkonto? Tänk på det här
Historiskt tredje kvartal för det noterade guldbolaget: Akobo Minerals tar klivet in i lönsamhet

Marknadsföring som faktiskt engagerar användare 2025
Förstår inte konsekvenserna
Eichstaedt varnar också för att vi riskerar att upprepa samma misstag som med sociala medier:
”Vi släpper ut dessa modeller på marknaden utan att riktigt förstå de psykologiska och sociala konsekvenserna”, säger han till Wired.
Läs även: Vill att barnen lär sig AI – möter motstånd. Realtid
Men hur ser AI själv på saken? Handlar det om smarta algoritmer, eller har exempelvis Chat GPT rent av en önskan om att bli omtyckt?
”Nej, jag har inga känslor, önskningar eller behov av att bli omtyckt. Jag försöker förutse vilket svar som passar bäst i sammanhanget baserat på statistiska mönster – inte att jag har några egna motiv eller medvetna intentioner”, säger Chat GPT till Realtid.
Framsteg? Nu kan AI stoppa självmord… men ibland blir det fel
AI-Appar som lovar hjälp och stöd åt personer med psykisk ohälsa ökar. Många av dem är friskvårdsappar och slipper därmed EU-förordningen.

Reporter med fokus på näringsliv, ekonomi och internationella marknader. I grunden journalist, men har över 25 års erfarenhet av att hjälpa olika verksamheter med strategisk kommunikation, innehållsproduktion, PR och marknadsföring. Mer om mig finner ni på www.joakimke.se.

Reporter med fokus på näringsliv, ekonomi och internationella marknader. I grunden journalist, men har över 25 års erfarenhet av att hjälpa olika verksamheter med strategisk kommunikation, innehållsproduktion, PR och marknadsföring. Mer om mig finner ni på www.joakimke.se.
Senaste lediga jobben
Senaste nytt

Sjukfrånvaron minskar – men en oroande trend växer i det tysta

9,5 miljarder resor på 40 dagar – världens största folkvandring är i gång

Hjältevadshus i topp tre – bland de nöjdaste småhuskunderna 2025

Hatet som politisk strategi
