Hem Samhälle Ekonomi Familjer stämmer OpenAI och påstår att chatbot hjälpt till med kanadensisk skolskjutning

Familjer stämmer OpenAI och påstår att chatbot hjälpt till med kanadensisk skolskjutning

Familjer stämmer OpenAI och påstår att chatbot hjälpt till med kanadensisk skolskjutning

Familjerna till offren för en skolskjutning i en avlägsen stad i Kanada i Klippiga bergen stämmer företaget OpenAI för artificiell intelligens i en federal domstol i USA och hävdar att ChatGPT-tillverkaren misslyckats med att uppmärksamma polisen på skyttens alarmerande interaktioner med chatboten.

En stämningsansökan som lämnades in på onsdagen på uppdrag av 12-åriga Maya Gebala, som skadades allvarligt i skottlossningen i februari, är bland de första av mer än två dussin fall från familjer i Tumbler Ridge, British Columbia, i vad deras advokater säger representerar ”ett helt samhälle som kliver fram för att hålla OpenAI ansvarig”.

Rekommenderade berättelser

lista med 4 artiklarslutet av listan

Sex andra stämningar som lämnats in i en federal domstol i San Francisco hävdar felaktiga dödsanspråk på uppdrag av fem barn och en pedagog som dödades i Kanadas dödligaste masskjutning på flera år.

Fallen representerar familjerna till de fem dödade barnen som utsattes för skolskjutningen. Dessa inkluderar Zoey Benoit, Abel Mwansa Jr, Ticaria ”Tiki” Lampert, Kylie Smith, alla 12, och Ezekiel Schofield, 13, samt utbildningsassistent Shannda Aviugana-Durand.

Jesse Van Rootselaar, vars interaktion med ChatGPT står i centrum för rättegångarna, sköt sin mamma och styvbror hemma innan hon dödade en pedagogisk assistent och fem elever i åldrarna 12 till 13 i hennes tidigare skola den 10 februari, enligt polisen. Van Rootselaar, som var 18, dog sedan av självmord. Tjugofem personer skadades också i attacken.

En talesperson för OpenAI kallade skjutningen ”en tragedi” och sa att företaget har en nolltoleranspolicy för att använda sina verktyg för att hjälpa till att begå våld.

”Som vi delade med kanadensiska tjänstemän har vi redan stärkt våra skyddsåtgärder, inklusive att förbättra hur ChatGPT reagerar på tecken på nöd, att koppla samman människor med lokalt stöd och mentala hälsoresurser, stärka hur vi bedömer och eskalerar potentiella hot om våld och förbättra upptäckten av upprepade policyöverträdare”, sa talespersonen i ett uttalande.

VD Sam Altman skickade ett brev förra veckan där han formellt bad om ursäkt till samhället för att hans företag inte meddelade polisen om skyttens onlinebeteende.

Fallen är en del av en växande våg av stämningar som anklagar företag inom artificiell intelligens för att misslyckas med att förhindra chatbot-interaktioner som målsäganden säger bidrar till självskada, psykisk ohälsa och våld. De verkar vara de första i USA som hävdar att ChatGPT spelade en roll för att underlätta en masskjutning.

Jay Edelson, som representerar målsäganden, sa att han planerar att lämna in ytterligare två dussin stämningar under de kommande veckorna mot företaget på uppdrag av andra som drabbats av skjutningen.

Enligt ett klagomål flaggade OpenAI:s automatiserade system i juni 2025 ChatGPT-konversationer där angriparen beskrev scenarier för vapenvåld.

Säkerheten åsidosatt

Säkerhetsteammedlemmar rekommenderade att kontakta polisen efter att ha kommit fram till att hon utgjorde ett trovärdigt och överhängande hot om skada, sa klagomålet, med hänvisning till en Wall Street Journal-artikel från februari om företagets interna diskussioner.

Men Altman och andra OpenAI-ledningar åsidosatte säkerhetsteamet, och polisen tillkallades aldrig, hävdar stämningsansökan. Skyttens konto avaktiverades, men hon kunde skapa ett nytt konto och fortsätta använda plattformen för att planera sin attack, står det i stämningsansökan.

Efter Wall Street Journal-rapporten sa företaget att kontot flaggades av system som identifierar ”missbruk av våra modeller för att främja våldsamma aktiviteter” men inte uppfyllde dess interna kriterier för rapportering till brottsbekämpning.

Stämningarna hävdar att ”offren inte lärde sig detta eftersom OpenAI var på väg, utan för att dess egna anställda läckte det till The Wall Street Journal efter att de inte längre kunde stå ut med företagets tystnad.”

I en blogg som publicerades på tisdagen sa OpenAI att de tränar sina modeller för att avslå förfrågningar som kan ”meningsfullt möjliggöra våld” och meddelar brottsbekämpande myndigheter när samtal tyder på ”en överhängande och trovärdig risk för skada på andra”, med experter på mental hälsa som hjälper till att bedöma gränsfall. Företaget sa att det kontinuerligt förfinar sina modeller och detektionsmetoder baserat på användning och expertinput.

Stämningarna kräver ett ospecificerat skadeståndsbelopp och ett domstolsbeslut som kräver att OpenAI ser över sina säkerhetsrutiner, inklusive obligatoriska hänvisningsprotokoll för brottsbekämpande myndigheter. Ett av offren lämnade ursprungligen in sin stämningsansökan i en kanadensisk domstol men avvisade den för att driva anspråk i Kalifornien, sade Edelson.

Stämningarna följer på liknande fall som lämnats in i amerikanska statliga och federala domstolar under de senaste månaderna där ChatGPT påstås ha underlättat skadligt beteende, självmord och, i åtminstone ett fall, ett mord-självmord.

Fallen, fortfarande i tidiga skeden, förväntas testa vilken roll en AI-plattform kan spela för att främja våld och om företag kan hållas ansvariga för användarnas handlingar. OpenAI har förnekat påståendena och hävdar i mord-självmordsfallet att gärningsmannen hade en lång historia av psykisk sjukdom.