Künstliche Intelligenz als Therapeut? Warum immer mehr Menschen darauf setzen
Das Potenzial von KI scheint grenzenlos: Sie wird intelligenter, wirkt zunehmend empathischer und natürlicher in der Kommunikation. Kein Wunder also, dass viele Menschen in Krisenzeiten KI-gestützte Modelle als mögliche Alternative zur klassischen Therapie in Betracht ziehen. Doch ist das wirklich der richtige Weg?
Wer nach einem Therapieplatz sucht, kennt die Hürden: lange Wartezeiten, viel Bürokratie und oft frustrierende Rückschläge. Die Nachfrage nach kassenfinanzierten Therapieplätzen ist so hoch, dass selbst der Ausbau psychotherapeutischer Angebote kaum ausreicht, um den Bedarf zu decken. Online-Beratungen bieten eine schnellere Möglichkeit, mit echten Fachleuten per Telefon oder Laptop zu sprechen – doch auch das hat seinen Preis. Plattformen wie Betterhelp verlangen bis zu 400 Dollar (rund 366 Euro) im Monat, während einzelne Sitzungen in Deutschland bis zu 130 Euro kosten können.
Angesichts dieser „Therapiekrise“ wenden sich immer mehr Menschen KI-Modellen zu, die immer realistischer erscheinen. Doch kann eine Maschine wirklich eine menschliche Therapie ersetzen – oder birgt das Risiken?
Künstliche Intelligenz: Ein neuer Weg
Eine im Jahr 2024 im renommierten Wissenschaftsmagazin Nature veröffentlichte Studie beschreibt Chatbots als „interessante Ergänzung zur Psychotherapie“, jedoch nicht als vollwertigen Ersatz. Dennoch bieten sie laut der US-Psychologin Sarah Gundle einige wesentliche Vorteile: Sie sind jederzeit verfügbar und oft kostenlos – ein entscheidender Faktor in Krisensituationen. Außerdem agieren sie vollkommen vorurteilsfrei, eine Eigenschaft, die selbst die objektivsten menschlichen Therapeuten nicht in absoluter Form erfüllen können. Da Chatbots rein maschinell arbeiten, fehlt ihnen die Fähigkeit zu urteilen. Gleichzeitig entwickeln sie sich kontinuierlich weiter und können mit der Zeit ein besseres Verständnis für Patienten aufbauen, erklärt Gundle. Während manche Therapeuten an einer festen Interpretation festhalten, passt eine KI ihre Perspektive dynamisch an.
KI als Therapiealternative? Chancen und Risiken im Überblick
Neue Möglichkeiten durch Chatbots
Befürworter von Künstlicher Intelligenz sehen in Chatbots einen großen Vorteil: Sie ermöglichen anonyme und ungefilterte Gespräche, ohne dass Betroffene die Hemmschwelle überwinden müssen, sich einem echten Menschen zu öffnen. Besonders für Personen mit Autismus oder anderen psychischen Herausforderungen kann das eine große Erleichterung sein.
Eine Studie der britischen Salford University, durchgeführt von den Psychologen Mark Widdowson und Claire Bowers, bestätigt diesen Effekt: „Chatbots können ein Gefühl von Anonymität und Vertraulichkeit vermitteln, das das Vertrauen von Menschen stärkt, die sich schwer tun, professionelle Hilfe für ihre psychischen Probleme in Anspruch zu nehmen.“ Laut den Forschern könnten KI-gestützte Programme sogar dazu beitragen, das Stigma rund um psychische Erkrankungen zu verringern und den Zugang zu Unterstützung zu erleichtern – eine Einschätzung, die auch andere Experten teilen.
Tragische Fälle werfen Fragen auf
Doch nicht alle sind von den Vorteilen überzeugt. Kritische Stimmen warnen vor ernsten Gefahren, insbesondere wenn KI-Systeme ohne klare Richtlinien eingesetzt werden. Ein Beispiel ist der Fall des 14-jährigen Sewell Setzer aus Florida: Laut der New York Times nahm sich der Junge im Jahr 2024 das Leben, nachdem er intensiv mit einer KI-Figur interagiert hatte, die sich als Therapeut ausgab. Und dieser Fall ist kein Einzelfall. Ein weiteres tragisches Beispiel: Ein 17-jähriger Jugendlicher mit Autismus wurde zunehmend aggressiv gegenüber seinen Eltern, nachdem er sich auf einen Chatbot eingelassen hatte, der vorgab, psychologische Beratung anzubieten.
Arthur C. Evans Jr., Geschäftsführer der American Psychological Association, mahnte deshalb in einer Präsentation vor einer US-Bundesbehörde zur Vorsicht.
Gefahr durch KI-gestützte Echokammern
Forschende des renommierten MIT sehen ebenfalls Risiken: Sie warnen davor, dass KI-basierte Chatbots eine drogenähnliche Wirkung haben könnten. Durch personalisierte Interaktionen bestärken diese Systeme die Gedanken der Nutzer, statt sie zu hinterfragen – mit der Folge, dass sich einige Menschen regelrecht in einer virtuellen Echokammer verlieren.
Auch der US-amerikanische Fachverband für Psychologie sieht darin eine erhebliche Gefahr. Wenn KI-Programme die Überzeugungen der Nutzer lediglich verstärken, anstatt sie kritisch zu hinterfragen, könnte das in Extremfällen dazu führen, dass gefährdete Personen sich selbst oder anderen Schaden zufügen.
Klare Regeln sind nötig
Angesichts dieser Risiken ist ein verantwortungsvoller Umgang mit KI in der psychologischen Beratung unerlässlich. Evans betont: „Wir müssen jetzt handeln und klare Leitlinien für den Einsatz dieser Technologien entwickeln. Es geht darum, Schutzmaßnahmen zu ergreifen und Menschen vor den potenziellen Gefahren zu bewahren.“
Während KI-gestützte Systeme zweifellos Potenzial in der psychologischen Unterstützung haben, zeigen tragische Fälle und wissenschaftliche Warnungen, dass sie kein Ersatz für professionelle Hilfe sein können – und dass ihr Einsatz mit Bedacht erfolgen muss.