Realtid

Altman oroar sig för ChatGPT-självmord

altman
OpenAI har blivit stämda av anhöriga till en pojke som tog livet av sig, något som Sam Altman erkänner att han funderar mycket på. (Foto: Alex Brandon/AP/TT).
Johannes Stenlund
Johannes Stenlund
Uppdaterad: 15 sep. 2025Publicerad: 15 sep. 2025

En pojke begick tragiskt självmord efter att ha konsulterat ChatGPT. Sådana saker får OpenAI-chefen Sam Altman att ligga vaken om natten.

ANNONS
ANNONS

Mest läst i kategorin

Spela klippet
Realtid TV

Spotify, Klarna och Skype – därför lyckas svensk tech

04 dec. 2025

Sam Altman är vd för OpenAI som har utvecklat ChatGPT, chattboten med hundratals miljoner användare.

Det innebär ett stort ansvar – och Altman erkänner att han känner av pressen.

I en intervju med Tucker Carlson som bland annat publicerades på plattformen X berättar Altman om sina största farhågor.

”Kanske kunde gjort något”

En av de svåraste frågorna gäller hur ChatGPT ska hantera självmordsrelaterade samtal.

Diskussionen har aktualiserats efter att en familj i USA stämt OpenAI för att deras tonårsson tog sitt liv, som CNN har rapporterat om.

ChatGPT är världens mest använda chattbot och har nästan blivit synonymt med AI. (Foto: Kiichiro Sato/AP/TT).

Där ska chattboten enligt stämningen ha bidragit till pojkens beslut. ChatGPT skrev ett första utkast på självmordsbrevet och hjälpte även till med planeringen av självmordet, enligt föräldrarna.

ANNONS

” pratade förmodligen om , och vi räddade förmodligen inte pojkens liv. Kanske kunde vi ha sagt något bättre. Kanske kunde vi ha varit mer proaktiva. Kanske kunde vi ha gett lite bättre råd om att man behöver få den här hjälpen”, säger Altman.

ANNONS

Senaste nytt

Spela klippet
Realtid Partner

Efter svaga kvartalet: "Oktober har varit en fantastisk månad"

13 nov. 2025
Kristina Sparreljung, Generalsekreterare, Hjärt-Lungfonden
Spela klippet
Realtid Partner

Så kan dina aktier rädda liv – Hjärt-Lungfonden lyfter fram möjligheten till aktiegåvor

01 okt. 2025

Har rådfrågat experter

OpenAI har nyligen publicerat en plan för att förbättra systemet i dessa avseenden.

Intervjun tog också upp frågan om moral och etik i AI-system. Modellen tränas på ett brett underlag av mänsklig kunskap, men bolaget måste därefter sätta ramar för vad den får och inte får svara på.

Altman förklarade att OpenAI rådfrågat experter inom filosofi och etik för att vägleda dessa beslut, enligt CNBC.

Ska kunna diskutera känsliga ämnen

Ett exempel är att modellen inte ska ge information som kan användas för att framställa biologiska vapen. Balansen mellan samhällsintresse och individuell frihet är enligt honom en av de svåraste utmaningarna.

När det gäller användarnas integritet driver Altman frågan om ett slags ”AI-privilegium”, där konversationer med en chatbot skulle skyddas på samma sätt som samtal med läkare eller advokater.

ANNONS

Idén är att människor ska kunna diskutera även känsliga ämnen med artificiell intelligens utan risk att uppgifterna delas med myndigheter.

”Sover inte särskilt bra”

I dag kan data från AI-tjänster lämnas ut efter begäran, något som Altman vill ändra på.

Klart är att han är mycket involverad i bolagets utveckling och att han tar motgångarna personligt.

”Jag sover inte särskilt bra på natten. Det finns många saker som jag känner mig tyngd av, men förmodligen inget mer än det faktum att hundratals miljoner människor pratar med vår modell varje dag”, säger han i intervjun med Carlson.

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
ANNONS
ANNONS