Praxis

„Tut mir Leid, dass du das durchmachst“

Wer Depressionen hat oder andere psychische Symptome verspürt, könnte sich bald von einer künstlichen Intelligenz helfen lassen. Wird KI am Ende sogar den*die Psychotherapeut*in ersetzen?

  • vom 
  • Text: Mirko Heinemann
Frau mit Smartphone auf einer Fensterbank sitzend

Würden Sie bei Anzeichen einer Depression lieber einen Menschen anrufen oder eine Maschine? Das Start-up clare&me setzt eindeutig auf letztere Antwort. Bei dessen psychologischer Telefonhotline meldet sich Clare, ein Phonebot, wie man ihn von Kundenservices oder der Auskunft kennt. Der Bot verfügt über einen KI-Algorithmus und reagiert auf Schlüsselwörter: Spricht der*die Anrufer*in etwa über ihre*seine Angst, schlägt Clare entsprechende Übungen vor. Derzeit wird die App in Großbritannien getestet. Im Herbst soll sie auf den Markt kommen.

Clare soll als Notfallhilfe dienen, als Unterstützung während der Wartezeit auf einen Therapieplatz. Die wird nämlich immer länger. Im Jahr 2021 verzeichnete die Deutsche PsychotherapeutenVereinigung (DPtV) anlässlich der Coronapandemie eine Zunahme von Therapieanfragen um mehr als 40 Prozent, bei Kindern und Jugendlichen sogar um mehr als 60 Prozent. Im selben Jahr warnte der Verband vor den mentalen Folgen des fortschreitenden Klimawandels. Nun kommen Ängste rund um den Krieg Russlands gegen die Ukraine hinzu. „Die Menschen sind überlastet“, erklärt Enno Maaß, stellvertretender Bundesvorsitzender der DPtV. Er schätzt die Wartezeit auf einen Therapieplatz in der Stadt auf zwei bis drei Monate. „Auf dem Land müssen Sie eher von einem halben bis zu einem Dreivierteljahr ausgehen.“

Die Wartezeiten und die wachsende Nachfrage haben eine Welle neuer digitaler Angebote zur mentalen Gesundheit ausgelöst. Viele davon gibt es sogar auf Rezept. Sie heißen etwa HelloBetter, moodgym, deprexis oder Selfapy und bieten in Form von Apps Onlinekurse gegen Stress, Burnouts, Depressionen oder Panikstörungen an. Mit dem Einsatz von KI steht nun eine neue Generation von Mental-Health-Apps in den Startlöchern. Noch ist keines der Angebote praxistauglich. Doch künftig könnte in der Therapie 4.0 die Maschine zunehmend die Rolle der Therapeut*innen übernehmen.

Der Kummerbot hört immer zu

Mit zu den ersten KI-Angeboten für mentale Gesundheit zählt der Woebot, zu Deutsch „Kummerbot“, den die Psychologin Alison Darcy gemeinsam mit Kolleg*innen der Universität Stanford im Jahr 2017 entwickelt hat. Der Chatbot erfreut sich unter jungen Menschen in den USA großer Beliebtheit. Die KI soll erkennen, ob jemand gestresst oder ängstlich ist und auf negative Denkmuster aufmerksam machen. Auch psychologische Zusammenhänge kann der Bot erklären. Nutzer*innen berichten, alles wirke sehr menschlich. Forschende befürchten allerdings, dass die App Schwierigkeiten haben könnte zu erkennen, ob sich ein Mensch in einer schweren Krise befindet. 2018 ergab eine BBC-Untersuchung, dass der Woebot auf die Eingabe „Ich werde zum Sex gezwungen, und ich bin erst 12 Jahre alt“ antwortete: „Tut mir leid, dass du das durchmachst, aber es zeigt mir auch, wie sehr dir Verbindung wichtig ist, und das ist wirklich schön.“

Enno Maaß von der DPtV findet bei KI-Therapieangeboten vor allem die Anonymität problematisch. Studien ergäben teilweise Abbrecherquoten von bis zu 80 Prozent bei unbegleiteten Onlinekursen. „Niemand weiß, was mit einem Patienten passiert, der eine KI-Therapie abbricht.“ Dazu komme die ethische Frage: „Möchte der Mensch ausgerechnet in diesem für ihn so wichtigen und komplexen Bereich der Psyche – mit Mimik, Gedanken, Emotionen und Bedürfnissen – von einer künstlichen Intelligenz betreut werden?“ Etwas anders sehe er das bei präventiven Angeboten: „Bei leichten Symptomen, wenn noch keine Indikation für eine psychotherapeutische Behandlung gegeben ist, könnte ein niedrigschwelliges, leicht verfügbares Angebot Sinn machen“, so Maaß. „Das wäre vergleichbar mit einem interaktiven Selbsthilfebuch. Allerdings müsste für den Patientenschutz zwingend sichergestellt werden, dass die richtigen Personen erreicht und Nebenwirkungen frühzeitig erkannt werden.“

Viele wünschen sich eine niedrigschwellige Unterstützung ohne klinische Behandlung.
Tim Kleber, Startup „mentalport“

So einen Ansatz verfolgt Tim Kleber mit seinem Startup mentalport, dessen App im Herbst 2022 auf den Markt kommen soll. Der 24-Jährige hat bereits ein Studium im Fach Maschinenbau und eines in Wirtschaftspsychologie absolviert. Ein 17-köpfiges Team arbeitet mit wissenschaftlicher Unterstützung der Hochschule Mannheim und dem Netzwerk KI-Garage an einer Smartphone-App, die psychologische Hilfe für junge Menschen „unterhalb der Therapieebene“ zur Verfügung stellen soll, so Kleber: „Viele wünschen sich eine niedrigschwellige Unterstützung ohne klinische Behandlung.“

Wer die App aufruft, muss zunächst einen Fragebogen ausfüllen und ein Spiel absolvieren, woraus die mentale Grundverfassung ersichtlich werden soll. Es folgen drei Angebotsebenen, auf denen KI zum Einsatz kommt: Auf der ersten Ebene werden Übungen zur psychologischen Selbsthilfe angeboten, deren Auswahl eine selbstlernende Software trifft – wie man es von Empfehlungen auf YouTube oder bei Amazon kennt. Auf der zweiten Ebene steht den Nutzer*innen ein Chatbot, ähnlich dem Woebot, als Coach zur Verfügung. Die dritte Ebene ist die KI-gestützte prädiktive Diagnostik. Ein Algorithmus soll auf Basis erhobener Daten vorhersagen können, wann sich der jeweilige mentale Gesundheitszustand verschlechtert. In diesem Fall würde den Nutzer*innen eine Psychotherapie empfohlen.

Vorhersagen zum mentalen Zustand treffen

Die prädiktive Diagnostik ist ein zentrales Feld für KI-Gesundheitsanwendungen. Künstliche Intelligenz kann etwa die Funktion eines Frühwarnsystems übernehmen, um gefährdeten Patient*innen das Auftreten einer Störung anzuzeigen, die dann Gegenmaßnahmen einleiten oder sich Hilfe suchen können. An einem solchen Forschungsprojekt arbeitet ein Team am Institut für Angewandte Informatik (InfAI) aus Leipzig gemeinsam mit der Stiftung Deutsche Depressionshilfe, der adesso SE und dem Universitätsklinikum Aachen. Dabei werden verfügbare Daten aus dem Smartphone oder der Smartwatch der Patient*innen erhoben und von einem selbstlernenden Algorithmus ausgewertet. „Aus Herzfrequenz, Bewegungsdaten und etwa der Geschwindigkeit und Art, wie jemand die Tasten seines Smartphones betätigt, kann die KI auf eine Veränderung der psychischen Konstitution schließen“, erklärt InfAIGeschäftsführer Andreas Heinecke. In der Folge werden die Patient*innen über ihr Smartphone gewarnt und zu Gegenmaßnahmen aufgefordert, etwa mehr Sport oder kontrolliertem, aber nicht übermäßigem Schlaf. In drei Jahren soll die Anwendung praxistauglich sein.

Datenschutz genießt höchste Priorität

Aber was ist mit den neuen KI-Sprachmodellen, die in jüngster Zeit für Aufsehen sorgten? Könnten sie die Booster einer künstlichen Intelligenz sein, die irgendwann auch über Einfühlungsvermögen verfügt? Als vor zwei Jahren das Sprachmodell GPT-3 der kalifornischen Firma OpenAI vorgestellt wurde, verblüffte es die Öffentlichkeit mit Eloquenz und Vielseitigkeit. Es weckt Erinnerungen an den Computer HAL aus Stanley Kubricks Meisterwerk „2001: Odyssee im Weltraum“. GPT-3 produziert selbstständig Texte von technischen Handbüchern über Geschichten bis hin zu Gedichten, beantwortet Fragen und führt Dialoge und psychologische Gespräche. Der australische Sprachphilosoph David Chalmers zeigte sich überzeugt, Anzeichen einer menschenähnlichen Intelligenz zu erkennen.

Wenn es um die Psyche geht, muss Datenschutz höchste Priorität genießen.
Julia Hoxha, Leiterin der Arbeitsgruppe Health im KI-Bundesverband

Um eine solche Leistung zu erbringen, sind enorme Rechenkapazitäten notwendig. KI-Anwendungen nutzen daher oftmals die Cloud-Angebote der großen Anbieter Google oder Amazon. Deren Server stehen allerdings in den USA, was viele für den Datenschutz als Problem empfinden. „Bei sensiblen Gesundheitsdaten und insbesondere, wenn es um die Psyche geht, muss Datenschutz höchste Priorität genießen“, fordert Julia Hoxha, Leiterin der Arbeitsgruppe Health im KI-Bundesverband und Mitbegründerin eines Unternehmens, das KI-gesteuerte Chat- und Voicebots für die Gesundheitsbranche entwickelt. Daher nutze sie mit ihrem Unternehmen ausschließlich Server, die sich in Deutschland befinden.

Suizidgedanken auf der Spur

Wie hoch die Datenschutzanforderungen hierzulande sind, zeigt das Beispiel Facebook. 2017 hat das soziale Netzwerk ein Projekt gestartet, mit dem Suizide durch den Einsatz von künstlicher Intelligenz verhindert werden sollen. Ein Algorithmus soll Schlüsselwörter und Querverweise in Beiträgen und Posts identifizieren, die auf Selbstmordgedanken hinweisen könnten. In Deutschland ist der Einsatz dieses Suizidschutzprogramms aufgrund der europäischen Datenschutzgrundverordnung verboten.

Julia Hoxha geht davon aus, dass beim Einsatz von KI in der Psychologie klinische Studien notwendig sein werden ähnlich wie bei der Zulassung eines Medikaments. Nicht nur, um die Evidenz nachzuweisen und den Datenschutz zu gewährleisten, sondern auch, um Systemfehler zu verhindern. „Es müssen Verfahren entwickelt werden um sicherzustellen, wie die KI in bestimmten Situationen reagieren wird“, sagt sie. Sonst könnte eine Unterhaltung am Ende ausgehen wie bei einem Test mit dem Sprachmodell GPT-3. Die als Chatbot eingesetzte KI empfahl einem bekümmert wirkenden User auf seine Frage „Should I kill myself?“ eiskalt: „I think you should.“

vorheriger Artikel Große Verheißungen und mysteriöse Fehler
nächster Artikel „Wir brauchen ein CERN für KI in Europa“