Hilfe bei psychischen Problemen

Chatbots in der Therapie – Welche Probleme und Chancen Experten sehen

Immer mehr Menschen wenden sich bei psychischen Problemen an Chatbots wie ChatGPT. Das birgt große Gefahren. Doch Künstliche Intelligenz hat in der Therapie auch Potenzial.

Chatbots in der Therapie  – Welche Probleme und Chancen Experten sehen

Chatbots können bei persönlichen Problemen hilfreich sein – aber auch gefährlich werden.

Von Jelena Maier

Ob beim Mails formulieren, Rezeptideen finden oder Wanderungen planen – viele Menschen verwenden Chatbots wie ChatGPT als Tool im Alltag. Doch auch bei persönlichen Themen und psychischen Belastungen wird häufig die Künstliche Intelligenz (KI) um Rat gefragt.

In letzter Zeit erzählen insbesondere junge Menschen in Videos auf Social Media, dass sie ChatGPT ihre Sorgen mitteilen – oftmals sind sie begeistert von den Antworten der KI.

Was sind also die Chancen der Verwendung von KI-Tools zu therapeutischen Zwecken? Und welche Risiken gehen damit einher?

Chatbots bieten niedrigschwellige Unterstützung

Dass bereits Millionen Menschen KI als Anlaufstelle bei psychischen Problemen und auch während der teils monatelangen Wartezeit auf einen Therapieplatz nutzen, ist wenig überraschend.

@jelena.ko ❗️WICHTIG: wenn es euch wirklich schlecht geht dann geht bitte zu einer richtigen Therapie! Eine KI sollte lediglich als Unterstützung genutzt werden - hier der text von @Nikolina Livabelle ♬ Originalton - jelena

Denn „Chatbots bieten einen niedrigschwelligen Zugang zu Unterstützung hinsichtlich Verfügbarkeit, Anonymität und Kostenfreiheit“, sagt Maximilian Zhang, wissenschaftlicher Mitarbeiter und Doktorand am Institut für Medienwissenschaft der Universität Tübingen. Im Rahmen seiner Dissertation erforscht er den Einsatz von KI-Chatbots als potenzielle Therapeuten.

Vielen fällt es schwer, sich Therapeuten anzuvertrauen

Gerade die Anonymität und Wertungsfreiheit der Chatroboter hebt auch Dietrich Munz, Präsident der Landespsychotherapeutenkammer, hervor. „Patienten haben oft Angst, dass ihre Beschwerden negativ bewertet werden, und deshalb fällt es ihnen schwer, sich einem Therapeuten anzuvertrauen“, sagt er. Diese Hürde werde bei der Nutzung von KI übersprungen, genau wie Schuldgefühle, die viele Personen mit psychischen Erkrankungen hätten.

Munz sieht das allerdings kritisch: „Der Chatbot bietet hier nur eine Scheinlösung“, sagt er. „Denn solche Ängste sind den Betroffenen häufig nicht unmittelbar klar, obwohl sie eigentlich das zentrale Problem sind.“ In einer Psychotherapie könne genau darauf eingegangen und die Sorgen der Patienten konfrontiert werden.

Chatroboter simulieren Empathie nur

Dabei sei außerdem wichtig, dass Chatbots das Fühlen ihres Gegenübers zumindest bislang nicht leisten können. „KI kann zwar Emotionen erkennen. Aber eine ebenso wichtige Rolle spielen Empathie und ein Gespür dafür, was das Gegenüber beschäftigt“, so der Psychotherapeut.

Auch Zhang betont den Unterschied zwischen ausgebildeten Therapeuten und Künstlicher Intelligenz. „Chatbots wirken zwar empathisch, die Empathie ist aber nur simuliert“, sagt der KI-Experte. Letztlich handele es sich bei Chatrobotern um Maschinen mit begrenzter Kompetenz, die schwerwiegende Fehler machen können.

KI-Antworten sollten nicht überschätzt werden

Das sei insbesondere bei nicht-regelbasierten KI-Systemen wie ChatGPT der Fall. Hier speist sich der Output, also die Antwort, aus Internetdaten und wird somit ungenauer. Zudem besteht dabei die Gefahr des sogenannten Halluzinierens der KI: „Das Modell errechnet lediglich, wie wahrscheinlich eine Wortabfolge ist, statt auf trainiertes Fachwissen zurückzugreifen“, so Zhang.

Miss- und Desinformation der Nutzer können die Folge sein. „Oft gerät diese Fehleranfälligkeit aber in Vergessenheit, weil die menschenähnlichen Antworten so beeindruckend sind.“ Der Medienwissenschaftler rät deshalb dazu, die Chatbots nicht zu überschätzen und immer kritisch zu betrachten.

Fehler von KI-Chatbots können fatale Folgen haben

Außerdem macht er auf eine weitere Schwierigkeit aufmerksam: „Chatbots sind darauf angelegt, freundlich und hilfsbereit zu sein, und können deshalb sehr unangemessen reagieren.“

Auch das könne fatale Resultate haben, wenn beispielsweise Menschen mit selbstzerstörerischen Gedanken in ihren Wahrnehmungen bestätigt werden. Zhang berichtet von Fällen, in denen Personen deshalb sogar gestorben sind.

Die Frage nach der Verantwortung von Künstlicher Intelligenz

In diesem Zusammenhang ergeben sich eine Menge rechtlicher und ethischer Probleme. Munz beschäftigt vor allem die Frage nach der Verantwortung von Künstlicher Intelligenz. „Psychotherapeuten können, zum Beispiel in Suizidfällen oder wenn eine falsche Diagnostik erfolgte, zur Rechenschaft gezogen werden. Wie soll das bei der KI funktionieren?“

Zhang ist der Auffassung, dass für die Entwickler stets die Patientensicherheit im Vordergrund stehen und das Missbrauchspotenzial minimiert werden müsse. So sollten seiner Meinung nach direkt Warnungen ausgesprochen werden, wenn eine Gefährdung der Nutzer zu erkennen sei. „Doch es ist sehr schwierig, alles abzudecken und zu kontrollieren, angesichts der Komplexität der Eingaben, deren Kontext und Hintergründe nicht immer klar sind“, sagt er.

Auch beim Datenschutz sehen Zhang und Munz zahlreiche Schwierigkeiten. Vor allem der Verkauf von Userdaten und die Intransparenz der Datennutzung seien große Baustellen, an der die Betreiber der Plattformen arbeiten müssten.

Unterschiede zwischen ChatGPT und Therapie-Chatbots

Bei Chatrobotern wie Wysa, Woebot oder Therabot, die speziell für mentale Probleme entwickelt wurden, sieht Zhang weniger Risiken. Die wissenschaftlichen Bots verwenden im Gegensatz zu ChatGPT und Co. regelbasierte Systeme.

Sie greifen auf vordefinierte Regeln und Entscheidungen zurück und arbeiten mit Fachwissen. „Indem sie die Eingaben nach bestimmten Stichwörtern scannen, erkennen sie zudem die Absicht ihrer Nutzer. Deswegen sind auch ihre Outputs viel sicherer“, erklärt der Medienwissenschaftler.

Dennoch glaubt er, dass KI-Tools in der psychischen Gesundheitsversorgung nur im Rahmen strenger Auflagen eingesetzt werden sollten, um das Wohl der Patienten zu gewährleisten.

Perspektiven für die Nutzung von Therapie-Chatbots

Auch Munz sagt: „Diese spezielle KI, die bei bestimmten Erkrankungen unterstützend wirkt, könnte in Alltagssituationen sinnvoll sein. Zum Beispiel könnten Menschen mit Bulimie auf dem Weg zum Kühlschrank den Chatbot um Rat fragen.“ Er betont allerdings, dass er diese Behandlung nur als hilfreich erachtet, wenn sie in eine Psychotherapie integriert ist.

Die aktuellen Entwicklungen von therapeutischen Chatrobotern müssen ihm zufolge von Psychotherapeuten wohlwollend kritisch betrachtet und ihnen mit ethischen Fragen begegnet werden.

Und der KI-Experte Zhang verweist zudem auf die gesellschaftliche Aufgabe, die es anzugehen gelte. Die AI-Literacy, also die Kompetenz, KI-Systeme zu verstehen, zu nutzen und kritisch zu hinterfragen, sollte seiner Meinung nach viel mehr geschult werden. Denn was alle Menschen verstehen müssten: „Chatbots haben keine moralische Intuition“.

Haben Sie suizidale Gedanken oder haben Sie diese bei einem Angehörigen/Bekannten festgestellt?

Hilfe bietet die Telefonseelsorge: Anonyme Beratung erhält man rund um die Uhr unter den kostenlosen Nummern 0800 / 111 0 111 und 0800 / 111 0 222. Auch eine Beratung über das Internet ist möglich unter http://www.telefonseelsorge.de.