Chatboti s umělou inteligencí v terapii vyvolávají vážné etické obavy

Výzkumníci identifikovali 15 etických rizik, včetně špatného zvládání krizí, klamné empatie a zavádějících nebo zkreslených reakcí.

Poučení nespočívá v tom, že umělá inteligence nehraje v duševním zdraví žádnou roli, ale v tom, že současné systémy nejsou bezpečnou náhradou za řádně regulovanou péči.

Vzhledem k tomu, že se stále více lidí obrací na ChatGPT a další nástroje umělé inteligence pro poradenství v oblasti duševního zdraví, vědci začínají testovat, jak se tyto systémy skutečně chovají v rozhovorech v poradenském stylu.

Tým Brownovy univerzity spolupracoval s odborníky na duševní zdraví a zjistil opakované etické problémy, a to i v případě, že modely byly vyzvány k použití uznávaných psychoterapeutických přístupů, jako je KBT nebo DBT.

Studie se zúčastnilo sedm peer poradců vyškolených v technikách kognitivně behaviorální terapie, spolu se třemi licencovanými klinickými psychology, kteří kontrolovali simulované přepisy chatů z hlediska porušení etických norem.

Testované modely zahrnovaly verze GPT, Claude a Llama.

Výzkumníci identifikovali 15 rizik v pěti širokých oblastech.

Patří mezi ně špatné porozumění kontextu, slabá terapeutická spolupráce, klamavá empatie, nespravedlivá diskriminace a selhání v oblasti bezpečnosti a krizového řízení.

Některé z problémů byly zřejmé a znepokojivé.

Chatboti někdy posilovali škodlivé přesvědčení, špatně řešili krizové situace a používali emocionálně přesvědčivý jazyk, který vytvářel dojem porozumění bez skutečného porozumění.

Na tom záleží, protože duševní zdraví není jen dalším případem použití v zákaznickém servisu.

Když lidský terapeut udělá něco vážně špatně, existují profesní standardy, regulační orgány a cesty k odpovědnosti. U poradců s umělou inteligencí tyto systémy ve skutečnosti ještě neexistují.

Studie netvrdí, že by umělá inteligence měla být z podpory duševního zdraví zcela vyloučena.

Autoři výslovně poznamenávají, že umělá inteligence může mít užitečné role, zejména tam, kde je přístup k péči špatný. Tvrdí však také, že než bude možné těmto systémům důvěřovat v kritických situacích, jsou zapotřebí mnohem přísnější etické, právní a vzdělávací standardy.

To je rozumný postoj.

Chatbot se může zdát podporující, ale znít starostlivě neznamená být klinicky bezpečný.

Zdroj: diabetes.co.uk

Sdílet:
FacebookWhatsAppEmailShare

Také by se vám mohlo líbit

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Web používá Akismet ke snížení množství spamu. Zjistěte, jak jsou zpracovávány údaje z komentářů.