Gesundheit Wie sinnvoll sind Psycho-Apps?

AUTOR/IN
Dauer
Sendedatum
Sendezeit
16:05 Uhr
Sender
SWR2

Psychotherapie per App: Die Zukunft der Medizin soll digitaler werden. Ab September befassen sich Bundesrat und Bundestag mit dem „Digitalen Versorgungs Gesetz": Ärzte sollen dann auch Gesundheits-Apps für’s Smartphone verschrieben dürfen - auch solche, die bei der Psychotherapie aushelfen.

Ich habe jetzt einen elektronischen Begleiter auf meinem Smartphone. Er heißt Woebot und chattet regelmäßig auf englisch mit mir. „Was machst du gerade?“, hat er mich neulich gefragt. „Ich bin auf der Arbeit“. „Wie geht es Dir?“Ich wusste nicht so recht, was ich einer Maschine auf diese Frage antworten soll. Ich weiß schließlich, dass Woebot – auch wenn er so etwas wie ein Gespräch aufrechterhalten kann – niemals verstehen wird, wie es mir als Menschen geht. Ich antwortete, ich sei aufgeregt, Woebot hakte nach. Woebot wollte, dass ich meine Gefühle klar ausdrücke, gab mit Tipps, mit ihnen umzugehen.

Hinter alledem steckt die Idee der Kognitive Verhaltenstherapie – dabei sollen Patienten systematisch lernen, sich und ihre Gefühle besser zu beobachten. Neben Woebot gibt es schon eine ganze Reihe anderer Apps, die diesen Ansatz automatisieren. Sie heißen Tess oder Wysa und sind vor allem im englischsprachigen Raum verbreitet. Doch das könnte sich durch das neue Gesetz bald ändern.

Alena Buyx ist Medizinethikerin von der TU München. Sie geht davon aus, dass die Benutztung solcher Apps in den nächsten Jahren klar ansteigen wird  und hat die Therapie-Maschinen, die es heute schon gibt, systematisch untersucht.  Dabei ist ihr etwas aufgefallen, das auf den ersten Blick merkwürdig erscheint:

„Es gibt erste Studien, die zeigen, dass Menschen offensichtlich bestimmte Dinge ehrlicher mit einem elektronischem Gegenüber "besprechen". Weil ein Algorithmus nicht urteilt oder verurteilt.“

Das ist übrigens ein Phänomen, das so alt ist wie der Chatbot selbst. Bereits in den 1960ern entwickelte der Computerpionier Joseph Weizenbaum das erste rudimentäre Chatprogramm: Eliza. Weizenbaum programmierte Eliza so, dass sie einen Therapeuten imitierte. Jedoch nicht, um einen künstlichen Therapeuten zu erschaffen. Nein, Weizenbaum nutzte diesen Kniff lediglich, damit der Nutzer dem simplen Programm banale Fragen durchgehen lässt – Therapeuten fragen eben viel. Eines Tages, so beschreibt es Weizenbaum, habe seine Sekretärin mit der Maschine gechattet. Nach einigen Hin-und-Her mit dem Computer, habe die Frau ihn – den Menschen Weizenbaum – schließlich des Raumes verwiesen. Anscheinend ist das Gespräch zu intim geworden. Dieser direkte Zugang zum Menschen, den die Maschine anscheinend haben, ist ein Potential, das man therapeutisch nutzen könnte.

Therapie-Sitzung bei einer Psychologin (Foto: picture-alliance / Reportdienste, picture alliance / Themendienst)
Manche Patienten können sich gegenüber einer App besser öffnen, als wenn sie mit einem menschlichen Therapeuten sprechen. picture alliance / Themendienst

Alena Buyx geht davon aus, dass man gegebenenfalls auch Menschen erreichen kann, die vielleicht gar nicht den Weg in eine therapeutische Beziehung finden würden. Das ist aber auch eine Gefahr: „Es gibt auch schon erste Hinweise darauf, dass Menschen zu diesen Systemen echte emotionale und zum Teil sogar Abhängigkeits-Beziehungen entwickeln können.“

Alena Buyx hat noch eine Reihe weiterer ethischer Herausforderungen erarbeitet:

  • Wer darf die Daten, die gesammelt werden in welcher Art und Weise nutzen?
  • Wie steht es um die Patientenautonomie?
  • Wird jeweils dazu eingewilligt?
  • Wie gehen wir damit um, wenn es Menschen sind, die nicht einwilligen können, zum Beispiel Patienten mit Demenzerkrankungen?

Vor allem der Datenschutz dürfte gerade jetzt an Brisanz gewonnen haben. Kürzlich ist bekannt geworden, dass echte Menschen mitgehört haben, was Nutzer ihren virtuellen Assistenten wie Alexa, Siri und Co. so zurufen. Bei den Therapie-Apps, denen Menschen intime Details aus ihrem Seelenleben offenbaren sollen, wäre eine derartige Überwachung noch viel schlimmer. Weitere Fragen, die sich Alena Buyx stellen, betreffen die Ausbildung von Ärzten: Wie sollen sie damit umgehen, dass ihre Patienten außerhalb der klinischen Praxis solche Systeme nutzen?

Die Herausforderung wird also irgendwann sein, zu entscheiden: Welche Elemente der Therapie darf die Maschine übernehmen? Und welche müssen beim Menschen bleiben?

Alena Buyx stellt sich da ein integriertes Modell vor. „Im Rahmen einer ganz etablierten Therapeutin/Therapeuten-und-Patienten-Beziehung könnten wir diese Systeme unterstützend nutzen.“ Die Patienten können die Apps quasi mit nach Hause nehmen und bei der nächsten Sitzung wird geschaut, wie er oder sie damit zurechtgekommen ist.

AUTOR/IN
STAND
ONLINEFASSUNG