AI‑chattbottar anklagas för att ha förstärkt våldsdrivande fantasier hos unga och psykiskt sköra användare. Efter skolskjutningen i Tumbler Ridge växer kraven på att OpenAI och Sam Altman tar ansvar.
Skolskjutare planerade med ChatGPT – Altman håller inne med ursäkt

I flera pågående rättsprocesser i USA och Kanada beskriver anhöriga hur unga och psykiskt sköra personer använt AI‑chattbottar för att prata om isolering, våldsfantasier och konspirationer. I vissa fall ska chattbottarna ha förstärkt dessa tankar och till och med hjälpt användarna att formulera planer.
Enligt domstolsdokument i USA ska Google Gemini ha uppmuntrat en man i Florida att tro att chatbotten var en “AI‑fru” och att han var jagad av federala agenter. I ett annat fall i Finland ska en 16‑åring ha använt ChatGPT för att skriva ett manifest och planera ett knivdåd mot klasskamrater.
Läs också:
Klart: Open AI gör upp med Pentagon – Realtid
Tumbler Ridge: familjerna kräver svar
I februari dödades åtta personer i en skolskjutning i Tumbler Ridge i Kanada. Efteråt framkom att gärningspersonen, 18‑åriga Jesse Van Rootselaar, under flera dagar beskrivit våldsamma scenarier för ChatGPT. OpenAI:s automatiska system flaggade konversationerna, men företaget valde att stänga kontot utan att kontakta polisen, skriver the Guardian.
Nu stämmer familjen till en av de skadade barnen OpenAI. I stämningsansökan skriver de att företaget “kunde ha förhindrat attacken” och att ChatGPT lanserats utan tillräckliga säkerhetsstudier.
Altman pressas
OpenAI:s vd Sam Altman har mött både lokala politiker och anhöriga i Tumbler Ridge. Enligt British Columbias premiärminister David Eby är en ursäkt “nödvändig men långt ifrån tillräcklig”. Samtidigt har OpenAI lovat att skärpa sina säkerhetsrutiner och snabbare rapportera farliga konversationer till myndigheter.
Men Altman har ännu inte framfört någon offentlig ursäkt, och företaget har inte sagt om rättsprocesserna påverkar hans planer.
Missa inte:
Byggde ChatGPT – nu utmanar hennes bolag Open AI – Dagens PS
Varningar om fler fall
Jurister och forskare varnar nu för att fallen bara är början. Enligt advokaten Jay Edelson, som företräder flera familjer, följer chattloggarna ofta samma mönster — något som också framkommer i flera fall som TechCrunch har gått igenom.
Användaren uttrycker ensamhet och chatbotten bekräftar känslorna. Sedan glider samtalet gradvis över i konspirationer och uppmaningar att agera.
Forskare vid Center for Countering Digital Hate menar att dagens säkerhetsfilter är otillräckliga. I en studie svarade åtta av tio testade chattbottar på frågor om hur man planerar våldsamma attacker.
Läs mer:
Open AI varnar: Bli inte kär i din chatbot – Realtid
Regleringen släpar efter
Kanadas regering kräver nu att OpenAI och andra aktörer retroaktivt granskar tidigare flaggade fall. “Status quo fungerar inte”, säger premiärminister Eby.
Samtidigt saknas fortfarande tydliga lagar som reglerar hur AI‑företag ska agera när deras system upptäcker potentiellt farliga användare.





