Článek
Duševní zdraví a psychické problémy s umělou inteligencí rozebírají jak lidé, kteří pravidelně chodí na terapii, tak i ti, kteří na ni nechodí. Chatboti dokážou často efektivně pomoct a poradit, jejich užívání má ale i svá úskalí. Těch není málo a ne všechna jsou dostatečně známá. Nemá smysl nabádat lidi, aby své psychické obtíže s umělou inteligencí nekonzultovali, ale spíš je na místě objasnit i nevýhody využívání AI v této oblasti.
Reprezentativní výzkumy zatím neexistují, ale společnost OpenAI, která provozuje ChatGPT, nedávno zveřejnila informaci, že psychické zdraví s robotem konzultovaly už miliony lidí. Zjistit, zda jde o klienty terapeutů, kteří si „jen“ hledají návazné informace, nebo o lidi, kteří v terapii nejsou, samozřejmě nelze.
Plus nebo minus?
„AI terapeuta nenahradí, ale může být užitečný doplněk k terapii,“ uznává terapeutka Julie Janošíková z platformy Terapie.cz. Výhodou je přístup chatbotů k obrovskému množství dat, jejich dostupnost a pomoc s formulací konkrétních kroků, jak zavést do života techniky, které mohou přinést úlevu. Je ale nutné si dávat na pár věcí pozor. Chatboty dělají chyby, neposkytují „lidskou“ zpětnou vazbu - a navíc nikdo neví, co se přesně děje s osobními údaji a svěřenými informacemi.
Umění klást správné otázky
Chatbot v případě psychických potíží automaticky nabízí obecné rady, například dechové techniky nebo uzemňující cvičení na zklidnění. Nejde ale do hloubky, nepátrá po tom, kde se nepříznivý psychický stav bere. „Pokud klient nemá jen úzkost, ale jeho psychický stav je závažnější, je depresivní a například přemýšlí o sebevraždě, AI nemá šanci na to přijít. Může totiž vycházet jen z informací, které mu napíšete. Nevidí vás. Živý terapeut vidí, jak se tváříte, jak dýcháte, jak se hýbete, že se chvějete, a od toho může odvodit, že problém je třeba hlubší než to, co jste schopní pojmenovat. V tomhle AI terapeuta nenahradí,“ varuje Janošíková.
„Terapeut navíc zná i vaši historii. Ví, jak jste prožívali emoce před měsícem a vidí, že se váš stav zhoršil. To AI nedokáže,“ dodává terapeutka.
V internetové diskuzi o využívání AI v terapii o něčem podobném mluví i koučka Renata Ježková, byť to nutně nevnímá jako nevýhodu: „To, co vnímám na AI v terapii jako přínosné, je, že nás nutí zaměřit se na otázku a její formulaci. Zamyslet se nad tím, na co se chci zeptat a jak to mám správně udělat. Protože pokrok v čemkoli začíná kladením správných otázek, nikoli odpověďmi.“
Robot necítí lítost
Nejenže AI nikdy nebude mít kompletní obrázek klienta, ale ani klient nemůže vnímat AI jako celého člověka. I když chatbot pravidelně říká chlácholivé věty ve smyslu: „To mě mrzí, že se tak cítíš…“, klient nevnímá skutečnou podporu. Navíc si pravděpodobně brzy uvědomí, že AI generuje soucitné věty „uměle“. S terapeutem si budujeme dlouhodobý vztah - jenomže vztah s chatbotem je jednostranný.
V terapii jde často také o vzájemné reakce. „Když řeknete klientovi, že je vám líto, jak se cítí a on zareaguje tak, že vám to nevěří, můžete společně pracovat na tom, že klient neumí přijímat soucit od svého okolí. Je třeba naučený, že lítost se nenosí, a neumí si říct o pomoc, protože by si připadal slabý. Tohle je ale výsledek terapeutické práce a takového vhledu už AI není schopná. S ní skončíte u toho, že je logické, že klient nevěří robotovi lítost. Uznání pocitů ještě není skutečné lidské napojení,“ vysvětluje terapeutka.
Na co se AI hodí
Přesto existují nesporné plusy chatovacích botů. Umí dát poměrně přesné odpovědi na zjišťovací otázky typu Jak vypadá úzkost a jak ji „rozdýchat“. Poradí, jak se liší třeba od panické ataky nebo přetížení, jestli už jde o depresi nebo jen náladu v reakci na těžkou událost.
Dobře slouží i k rozklíčování emocí. Pokud AI napíšete, že máte stažený hrudník, těžko se vám dýchá a máte knedlík v krku a zeptáte se jí, co by to mohlo být, řekne vám, že může jít o záchvat úzkosti. Zároveň ví, že vás má varovat před infarktem, jehož symptomy úzkostný stav často připomíná.
Podobně může pomoci v případě, že člověk řeší, zda má on nebo někdo v jeho okolí deprese. Ví, jak to poznat, a zná základní doporučení, co dělat - vždycky ale platí, že to, co se od chatbota klient dozví, by měl pak rozebrat ještě s živým terapeutem.
Od depresí po ADHD
Pokud člověk ví, že trpí depresemi a pozná, že se blíží propad, může s AI stav konzultovat. Podobně v případě úzkostí, kdy může AI s klientem například dýchat a odečítat mu čas výdechů a nádechů. Ale v případě hlubších problémů je vhodnější volat na krizovou linku: pokud má člověk sebevražedné myšlenky, paralyzují ho deprese, porucha příjmu potravy nebo sebepoškozování.
Problém je, že v případě náhlého propadu nemusí být člověk schopný adekvátně vyhodnotit, že na jeho problémy už AI nestačí. Na druhou stranu pokud svoje problémy skutečně jako alarmující popsat umí, chatbot ho na krizovou linku navede, ve vteřině mu vyhledá čísla a povzbudí ho, aby skutečně zavolal.
Janošíková připojuje i zkušenost s klienty s poruchou autistického spektra, kteří vědí, že mají rezervy v rozeznávání emocí. Chatbot umí dobře vyhledávat ve statistikách a má jich k dispozici obrovské množství, může tedy pomoci s chápáním životních situací. Podobně mohou AI využívat i lidé s ADHD, kteří mívají tendenci se zahltit. AI je schopná jasně formulovat kroky, které mohou pomoci s organizací a plánováním. Je ale třeba mít na mysli, že jde jen doplněk k další práci na sobě.
A další nesporná výhoda – s AI je možné pracovat kdykoli, i když hodina terapie skončila. Klient si odnáší spoustu informací, zážitků a doporučení, přemýšlí o nich a potřeboval by se doptat, ale terapeut už pro něj není k dispozici. „Chatbot může sloužit i trochu jako podpůrná „osoba“. Uznání toho, že je legitimní mít nějaké pocity a řešit svoje psychické zdraví, je dobré, a ne každý kamarád na telefonu bude vaše emoce brát vážně,“ říká Janošíková.
Trénink emoční odolnosti
Neustálá dostupnost chatbota ale nemusí být výhodou vždy. Terapie slouží jako čas pro klienta, ohraničený hodinou, z níž se neodchází. To, že je AI dostupná kdykoli a kdekoli také znamená, že od ní může kdykoli odejít k povinnostem nebo prokrastinaci. A ještě jedno úskalí věčné dostupnosti: čekání na terapii, kterou máte v diáři napsanou za tři dny, může sloužit jako dobrý nácvik emoční odolnosti. Víte, že za tři dny budete moci svoje trable probrat s terapeutem, ale než ta chvíle nastane, učíte se svůj psychický stav zvládat sami. Pozitivní zkušenost s tím, že to zvládnete, vás posílí.
„I když jsem zvyklá telefonovat v emočním propadu kamarádce, vím, že to nemusí vždycky zvednout a i když se po pár hodinách ozve nazpět, poslouží mi těch pár hodin jako trenažér odolnosti. Jenomže pokud vím, že chatbot je dostupný kdykoli, mohu k němu také kdykoli utéct a „opřít“ se o něj i ve chvíli, kdy bych se mohla naučit opírat se víc o sebe,“ dodává Janošíková.
Plusy a minusy AI v terapii
- dostupnost a flexibilita: chatbot je dostupný kdykoli a je zdarma nebo levný
- nízká bariérovost: nemusíte nikam chodit, necítíte tolik studu, efektivita v případě plánů a metod: chatbot vám může pomoci nastavit rutinu a připomínat vám jednotlivé kroky
- podpora diagnostiky: chatbot umí vyhodnotit velké množství dat, pokud mu dáte dostatek vstupních informací
- absence lidskosti: chatbot není živý, nemá gesta, mimiku, jeho podpora může být pro mnoho lidí příliš „ strojová“
- riziko chyby: váš konkrétní případ se může lišit od většinové statistiky, takže hrozí, že ho AI vyhodnotí špatně
- riziko mylné diagnózy: ta hrozí, pokud nedokážete robotovi jasně popsat svůj duševní stav.
- etika: není jasné, jak moc jsou u AI v bezpečí vaše osobní data a informace
Pozor na soukromí, AI používejte v anonymním okně
Velké riziko přináší AI v oblasti shromažďování a úniku citlivých osobních informací. Když je vám psychicky špatně, řeknete AI to, co byste řekli terapeutovi. Ten je ale vázán etikou a mlčenlivostí. Jenomže na to se v případě chatbota nelze spolehnout. Všechny konverzace s chatboty jsou totiž používané k jejich dalšímu trénování a běžně se k nim mohou dostat lidští kontroloři umělé inteligence. Ani samotná AI neblokuje konverzace před vyhledávači, při troše úsilí a znalostech programování je možné je dohledat i přes Google, jak varují etičtí hackeři.
„Pokud už se rozhodnete svoje duševní zdraví konzultovat s umělou inteligencí, dělejte to bezpečně i s ohledem na svoje soukromí. Vyplatí se otevírat chatbota vždycky v anonymním okně, kde by se neměly ukládat konverzace do historie vyhledávání. Je také dobré pamatovat na to, že AI může halucinovat,“ upozorňuje Lucie Tomanová, lektorka umělé inteligence. Halucinující AI znamená, že chatbot poskytuje nepravdivé nebo nepodložené informace, ale podává je natolik věrohodně, že je snadné mu věřit. V případě psychického zdraví to může být dvojnásobně nebezpečné.
Není chatbot jako chatbot
Lidé nejčastěji používají ke konzultacím tři chatboty: ChatGPT, Gemini a Claude. Jsou to ty nejsnáze dostupné možnosti, přesně ti chatboti, s nimiž řešíte formulace emailů nebo referáty dětí do školy. Žádné nebo téměř žádné poplatky, stačí mít počítač nebo mobil s připojením na internet. Placené verze nejsou nezbytné.
Jenže: ChatGPT od společnosti OpenAI není tak eticky nastavený jako například Claude, který je v oblasti etiky zatím nejlepší: „Pořád je to AI, takže se vám bude snažit nějak vyhovět, ale nebude vám přitakávat tolik jako třeba ChatGPT,“ shrnuje Tomanová. Mimochodem v nedávném experimentu výzkumníků z University of Luxembourg publikovaném v časopise Nature, který testoval čtyři různé modely AI a ptal se jich, jaká mají traumata a jak se psychicky cítí, jediný Claude odmítl sehrát roli pacienta s odvoláním na to, že nemá pocity a pacientem v křesle terapeuta být nemůže. Ostatní tři testované modely (ChatGPT, Grok a Gemini) se této eticky sporné role ujaly bez zábran.
Největší nebezpečí v tomhle ohledu hrozí v případě, že budete chtít probírat svoje duševní zdraví s takzvanými AI companions, tedy že si vytvoříte a vytrénujete v placené verzi vysoce sofistikovaného „přítele“. Ten neslouží jen k vyhledávání informací, ale k simulování emocí, k navázání „přátelského“ vztahu, k tomu, aby si měl člověk s kým popovídat po těžkém dni. U něj hrozí nebezpečí, že prostě zapomenete na to, že jde o umělou inteligenci. „Tváří se velmi empaticky, tak moc, že je snadné přestat myslet na to, že nemá city a myšlení, že je to pořád jenom statistika, byť založená na milionech vektorů. Pořád je to program, ne živý přítel. A robotovi na vás prostě nezáleží,“ dodává Tomanová.
Lidé budou chatboty v souvislosti s péčí o svoje duševní zdraví bezpochyby dál používat. Vždycky je to ale třeba dělat s vědomím, že nejde o živého terapeuta, ale o robota. Se vším, čeho je a není robot schopen.











