Zverejnené 29. apríla 2026
Rodiny obetí streľby v škole v odľahlom kanadskom meste Skalistých hôr využívajú na federálnom súde v USA spoločnosť OpenAI s umelou inteligenciou, pričom tvrdia, že výrobca ChatGPT neupozornil políciu na alarmujúce interakcie strelca s chatbotom.
Žaloba podaná v stredu v mene 12-ročnej Mayy Gebalovej, ktorá bola vážne zranená pri februárovej streľbe, je jedným z prvých z viac ako dvoch tuctov prípadov od rodín v Tumbler Ridge v Britskej Kolumbii, v ktorých ich právnici hovoria, že predstavuje „celú komunitu vystupujúcu vpred, aby bola OpenAI zodpovedná“.
Odporúčané príbehy
zoznam 4 položiekkoniec zoznamu
Šesť ďalších žalôb podaných na federálnom súde v San Franciscu tvrdí, že v mene piatich detí a pedagóga boli zabití pri najsmrteľnejšej masovej streľbe v Kanade za posledné roky.
Prípady predstavujú rodiny piatich zabitých detí, ktorých cieľom bola streľba v škole. Patria medzi ne Zoey Benoit, Abel Mwansa Jr, Ticaria „Tiki“ Lampert, Kylie Smith, všetci 12, a Ezekiel Schofield, 13, ako aj asistentka vzdelávania Shannda Aviugana-Durand.
Jesse Van Rootselaar, ktorej interakcie s ChatGPT sú stredobodom súdnych sporov, podľa polície zastrelila svoju matku a nevlastného brata doma predtým, ako 10. februára zabila pedagogického asistenta a piatich študentov vo veku 12 až 13 rokov v jej bývalej škole. Van Rootselaar, ktorý mal 18 rokov, potom zomrel samovraždou. Pri útoku utrpelo zranenia aj 25 ľudí.
Hovorca OpenAI označil streľbu za „tragédiu“ a uviedol, že spoločnosť má politiku nulovej tolerancie pri používaní svojich nástrojov na pomoc pri páchaní násilia.
„Ako sme sa podelili s kanadskými predstaviteľmi, už sme posilnili naše bezpečnostné opatrenia vrátane zlepšenia toho, ako ChatGPT reaguje na príznaky úzkosti, spájania ľudí s miestnou podporou a zdrojmi duševného zdravia, posilňuje spôsob, akým hodnotíme a eskalujeme potenciálne hrozby násilia, a zlepšujeme odhaľovanie opakovaných porušení pravidiel,“ uviedol hovorca vo vyhlásení.
Generálny riaditeľ Sam Altman poslal minulý týždeň list, v ktorom sa formálne ospravedlnil komunite, že jeho spoločnosť neinformovala orgány činné v trestnom konaní o online správaní strelca.
Prípady sú súčasťou rastúcej vlny súdnych sporov obviňujúcich spoločnosti s umelou inteligenciou, že nedokázali zabrániť interakciám chatbotov, ktoré podľa žalobcov prispievajú k sebapoškodzovaniu, duševným chorobám a násiliu. Zdá sa, že sú prví v USA, ktorí tvrdia, že ChatGPT zohral úlohu pri uľahčovaní masovej streľby.
Jay Edelson, ktorý zastupuje žalobcov, uviedol, že v najbližších týždňoch plánuje podať ďalšie dve desiatky žalôb proti spoločnosti v mene ostatných dotknutých streľbou.
Podľa jednej sťažnosti automatizované systémy OpenAI v júni 2025 označili konverzácie ChatGPT, v ktorých útočník opísal scenáre násilia so zbraňami.
Bezpečnosť bokom
Členovia bezpečnostného tímu odporučili kontaktovať políciu po tom, čo dospeli k záveru, že predstavuje vierohodnú a bezprostrednú hrozbu ublíženia, uviedla sťažnosť s odvolaním sa na článok z Wall Street Journal z februára o interných diskusiách spoločnosti.
Ale Altman a ďalšie vedenie OpenAI zrušili bezpečnostný tím a polícia nebola nikdy privolaná, tvrdí žaloba. Účet strelca bol deaktivovaný, ale mohla si vytvoriť nový účet a pokračovať v používaní platformy na plánovanie svojho útoku, uvádza žaloba.
Na základe správy Wall Street Journal spoločnosť uviedla, že účet bol označený systémami, ktoré identifikujú „zneužitie našich modelov na podporu násilných aktivít“, ale nespĺňa jej interné kritériá na nahlásenie orgánom činným v trestnom konaní.
V žalobách sa uvádza, že „obete sa to nedozvedeli preto, že OpenAI prichádza, ale preto, že ich vlastní zamestnanci to prezradili do denníka The Wall Street Journal po tom, čo už nedokázali stráviť mlčanie spoločnosti“.
V blogu zverejnenom v utorok OpenAI uviedla, že trénuje svoje modely na odmietnutie žiadostí, ktoré by mohli „zmysluplne umožniť násilie“, a upozorní orgány činné v trestnom konaní, keď konverzácie naznačujú „bezprostredné a vierohodné riziko poškodenia iných“, pričom odborníci na duševné zdravie pomáhajú hodnotiť hraničné prípady. Spoločnosť uviedla, že svoje modely a metódy detekcie neustále zdokonaľuje na základe využitia a expertných vstupov.
Žaloby sa domáhajú nešpecifikovanej výšky škôd a súdneho príkazu, ktorý vyžaduje, aby OpenAI prepracovala svoje bezpečnostné postupy vrátane povinných protokolov o postúpení. Jedna z obetí pôvodne podala svoju žalobu na kanadskom súde, ale zamietla ju, aby uplatnila nároky v Kalifornii, povedal Edelson.
Žaloby nasledujú po podobných prípadoch podaných na amerických štátnych a federálnych súdoch v posledných mesiacoch, ktoré údajne ChatGPT napomáhali škodlivému správaniu, samovražde a aspoň v jednom prípade vražde-samovražde.
Očakáva sa, že prípady, ktoré sú stále v počiatočnom štádiu, otestujú, akú úlohu môže zohrávať platforma AI pri propagácii násilia a či môžu byť spoločnosti brané na zodpovednosť za konanie používateľov. OpenAI tieto tvrdenia poprela a v prípade vraždy a samovraždy tvrdila, že páchateľ mal dlhú históriu duševnej choroby.



