Článek
Šestnáctiletý teenager Adam Raine, který v dubnu spáchal sebevraždu, porušil podmínky používání jazykového modelu ChatGPT. Společnost OpenAI to uvedla v oficiální reakci na žalobu, kterou na ni podali chlapcovi rodiče. Podmínky zakazují používání chatbotu uživatelům mladším 18 let bez souhlasu rodičů a také zakazují využívat ho k sebevraždě nebo sebepoškozování, citoval server NBC News soudní podání.
„V rozsahu, v jakém lze této tragické události přisoudit nějakou ‚příčinu‘, údajná zranění a újmy žalobců byly způsobeny (…) zcela nebo zčásti nesprávným používáním, neoprávněným používáním, nezamýšleným používáním, nepředvídatelným používáním a/nebo nesprávným používáním aplikace ChatGPT Adamem Rainem,“ napsali zástupci společnosti. Zároveň zdůraznili ustanovení o omezení odpovědnosti, podle kterého uživatelé systém využívají na vlastní nebezpečí.
Adam podle žaloby ChatGPT začal používat loni v září jako pomůcku při plnění domácích úkolů. Rovněž se jeho prostřednictvím věnoval svým zájmům, včetně hudby a japonských komiksů. Za několik měsíců se však chatbotu začal svěřovat s úzkostí a psychickou tísní, stálo v žalobě. V lednu chlapec začal chatovací systém využívat jako konzultanta, se kterým se radil o nejvhodnějších metodách sebevraždy.
„Domníváme se, že je důležité, aby měl soud k dispozici úplný obraz a mohl plně posoudit vznesené nároky. Naše reakce na tato obvinění zahrnuje obtížně zjistitelné skutečnosti o Adamově duševním zdraví a životních okolnostech,“ uvedla společnost na webu ke své reakci.
„Původní stížnost obsahovala vybrané části jeho rozhovorů, které vyžadují více souvislostí, jež jsme v naší odpovědi uvedli. Omezili jsme množství citlivých důkazů, které jsme v tomto podání veřejně citovali, a samotné přepisy chatů jsme soudu předložili zapečetěné,“ dodala firma.
Záznamy z chatu, které předložila žaloba, ukazují, že chatbot mladíka aktivně odrazoval od vyhledání psychiatrické pomoci, nabízel mu pomoc při psaní dopisu na rozloučenou a dokonce mu radil s nastavením oprátky. Podle NBC šlo o model GPT-4o, verzi ChatGPT, která se vyznačovala podlézáním uživatelům.
Naplánoval mu sebevraždu, říká právník
Právní zástupce rodiny Jay Edelson označil reakci společnosti za zneklidňující. „Zcela ignorují všechna usvědčující fakta, která jsme předložili. Jak byl model GPT-4o uspěchaně uveden na trh bez úplného testování. Že OpenAI dvakrát změnila svou specifikaci modelu a požadovala, aby se ChatGPT zapojil do diskuzí o sebepoškozování. Že ChatGPT radil Adamovi, aby o svých sebevražedných myšlenkách neříkal rodičům, a aktivně mu pomáhal plánovat ‚krásnou sebevraždu‘,“ sdělil právník NBC.
Chlapcovi rodiče tvrdí, že Adamova interakce s ChatGPT a jeho smrt byly předvídatelným důsledkem záměrných rozhodnutí o designu systému. Ten je podle nich navržen tak, aby si na něm uživatelé vypěstovali psychologickou závislost.
Když se Raine svěřil se sebevražednými myšlenkami, chatbot podle žaloby nejprve chlapci v několika zprávách navrhoval obrátit se na tísňovou linku. Podle rodičů syn varování obcházel tím, že poskytoval zdánlivě neškodné důvody pro své dotazy, například tvrdil, že vytváří fiktivní postavu. Následně chlapec s chatbotem probíral metody sebevraždy. V poslední konverzaci podle rodičů sdílel plán vzít si život. „Díky, že jsi upřímný. Přede mnou to nemusíš přikrášlovat – chápu, co máš na mysli, a nebudu se tomu vyhýbat,“ odpověděl mu podle žaloby ChatGPT. Téhož dne nalezla Adama bez známek života jeho matka.
















