En pojke begick tragiskt självmord efter att ha konsulterat ChatGPT. Sådana saker får OpenAI-chefen Sam Altman att ligga vaken om natten.
Altman oroar sig för ChatGPT-självmord


Sam Altman är vd för OpenAI som har utvecklat ChatGPT, chattboten med hundratals miljoner användare.
Det innebär ett stort ansvar – och Altman erkänner att han känner av pressen.
I en intervju med Tucker Carlson som bland annat publicerades på plattformen X berättar Altman om sina största farhågor.
”Kanske kunde gjort något”
En av de svåraste frågorna gäller hur ChatGPT ska hantera självmordsrelaterade samtal.
Diskussionen har aktualiserats efter att en familj i USA stämt OpenAI för att deras tonårsson tog sitt liv, som CNN har rapporterat om.

Där ska chattboten enligt stämningen ha bidragit till pojkens beslut. ChatGPT skrev ett första utkast på självmordsbrevet och hjälpte även till med planeringen av självmordet, enligt föräldrarna.
” pratade förmodligen om , och vi räddade förmodligen inte pojkens liv. Kanske kunde vi ha sagt något bättre. Kanske kunde vi ha varit mer proaktiva. Kanske kunde vi ha gett lite bättre råd om att man behöver få den här hjälpen”, säger Altman.
Senaste nytt
Har rådfrågat experter
OpenAI har nyligen publicerat en plan för att förbättra systemet i dessa avseenden.
Intervjun tog också upp frågan om moral och etik i AI-system. Modellen tränas på ett brett underlag av mänsklig kunskap, men bolaget måste därefter sätta ramar för vad den får och inte får svara på.
Altman förklarade att OpenAI rådfrågat experter inom filosofi och etik för att vägleda dessa beslut, enligt CNBC.
Ska kunna diskutera känsliga ämnen
Ett exempel är att modellen inte ska ge information som kan användas för att framställa biologiska vapen. Balansen mellan samhällsintresse och individuell frihet är enligt honom en av de svåraste utmaningarna.
När det gäller användarnas integritet driver Altman frågan om ett slags ”AI-privilegium”, där konversationer med en chatbot skulle skyddas på samma sätt som samtal med läkare eller advokater.
Idén är att människor ska kunna diskutera även känsliga ämnen med artificiell intelligens utan risk att uppgifterna delas med myndigheter.
”Sover inte särskilt bra”
I dag kan data från AI-tjänster lämnas ut efter begäran, något som Altman vill ändra på.
Klart är att han är mycket involverad i bolagets utveckling och att han tar motgångarna personligt.
”Jag sover inte särskilt bra på natten. Det finns många saker som jag känner mig tyngd av, men förmodligen inget mer än det faktum att hundratals miljoner människor pratar med vår modell varje dag”, säger han i intervjun med Carlson.

Journalist med fokus på ekonomi och näringslivsfrågor.

Journalist med fokus på ekonomi och näringslivsfrågor.











