„Alexa, mach mal Beratung.“

Wenn es doch nur so einfach wäre. Oder vielleicht, gerade weil es inzwischen so einfach wirkt, ist die Verunsicherung spürbar –wie ein leiser Unterton, der durch viele Gespräche schwingt. Seit Sprachmodelle wie ChatGPT für alle zugänglich sind, höre ich in Supervisionen, Teamsitzungen und Aus – und Fortbildungen immer häufiger eine Frage, die schlicht klingt – und doch tief geht:

„Was bleibt eigentlich noch für uns, wenn KI alles kann?“

Sowohl in der TelefonSeelsorge als auch am Institut für Online-Beratung ist Künstliche Intelligenz längst kein Zukunftsthema mehr. Sie ist da. Gegenwärtig, leistungsstark – und manchmal wie eine unsichtbarere Kollegin, die sich ungefragt mit an den Beratungstisch setzt. Manchmal hilfreich. Manchmal irritierend. Und manchmal einfach: zu viel.

Ich selbst begegne der KI regelmäßig – und ja, ich bin eine dieser sogenannten Heavy Userinnen 😉 Fasziniert, kritisch, lernbereit. Doch je mehr ich mich mit ihren Möglichkeiten beschäftige, desto klarer wird mir auch: Die Sorge, überflüssig zu werden, ist real. Sie zeigt sich in Fragen, Blicken, in einem kleinen Seufzer am Ende des Gesprächs. Und sie verdient es, ernst genommen zu werden.

KI kann viel – aber nicht fühlen. (Bild: Cash Macanaya, unsplash)

Denn KI kann viel. Und sie kann uns den Arbeitsalltag spürbar erleichtern. Wir nutzen sie bereits als Sparringspartnerin für Gedanken, setzen Chatbots ein, lassen Gesprächsverläufe analysieren oder holen uns Impulse für Dokumentationen. Das ist praktisch, effizient – und oft wirklich hilfreich.

Aber eines wird Künstliche Intelligenz nicht können:
uns beratende Menschen ersetzen.
Ich möchte das an einem Beispiel aus der TelefonSeelsorge deutlich machen.

Ein älterer Mann ruft an. Die Stimme ruhig, fast gefasst – aber da liegt Müdigkeit zwischen den Worten.
„Ich habe alles versucht. Ich will einfach nicht mehr.“
Dann, eine kleine Pause.
„Sie brauchen mir nichts zu erzählen“, sagt er. „Ich weiß, was Sie sagen würden. Ich hab das alles schon gehört.“

Die Beraterin schweigt einen Moment. Atmet. Bleibt.
Dann sagt sie leise:
„Vielleicht wissen Sie, was ich sagen würde. Aber ich weiß noch nicht, was Sie sagen möchten – wenn Sie nicht stark sein müssen.“

KI ist kein Ersatz – sie ist ein Werkzeug. (Bild: Susan Holt-Simpson, unsplash)

Was würde eine KI in diesem Moment tun?

Sie würde den Text analysieren, Schlüsselbegriffe erkennen, Risikofaktoren berechnen.
Vielleicht ein Fenster öffnen mit dem Hinweis: Bitte wenden Sie sich an den Krisendienst.
Ein Chatbot könnte fragen:
„Haben Sie konkrete Suizidpläne?“
„Sind Sie in akuter Gefahr?“
„Brauchen Sie sofort Hilfe?“

Alles korrekt. Regelkonform. Effektiv.
Mit dem Ziel, Menschen zu schützen – und Anbieter rechtlich abzusichern.

Aber vielleicht meint der Mann genau das, wenn er sagt:
„Ich hab das alles schon gehört.“
Sätze, die richtig sind – aber nicht berühren.
Worte, die wirken sollen – aber niemanden erreichen.

Echte Nähe lässt sich nicht programmieren. (Bild: Annie Spratt, unsplash)

Was der Mensch tut, ist anders.
Er bleibt.
Ohne Skript. Ohne Zeitdruck. Ohne sofort helfen zu müssen.
Nur mit einem offenen Ohr.
Einem ruhigen Atem.
Und einer Stimme, die sagt:
„Du bist nicht allein.“

Am Ende sagt der Mann:
„Es hat gutgetan, dass Sie einfach da waren. Ohne mich gleich retten zu wollen.“

Darum kann KI das nicht.

Weil Nähe nicht programmierbar ist.
Weil Beziehung kein Code ist.
Weil es Mut braucht, in der Sprachlosigkeit auszuhalten –
und genau das kann Leben retten

Autorin des Artikels
Birgit Knatz