Was KI nicht kann, und was sie kann
Keine Übertreibung in beide Richtungen. Was KI-Begleitung tatsächlich nicht leisten kann, und warum das wichtig ist zu wissen.
Es ist einfacher, über das zu schreiben, was KI kann. Die Forschung dazu wächst. Die Anwendungsfälle sind real. Die Effekte sind messbar.
Aber wer ehrlich über eine Technologie schreiben will, muss auch über ihre Grenzen schreiben. Nicht weil Skepsis Pflicht ist, sondern weil Menschen, die sich auf etwas verlassen – oder es für jemanden einsetzen, den sie lieben – ein Recht darauf haben zu wissen, wo es aufhört.
Dieser Beitrag benennt, was KI-Begleitung nicht kann. Ohne Aufweichung, ohne Relativierung.
„Wer sich auf etwas verlässt – oder es für jemanden einsetzt, den man liebt – hat ein Recht zu wissen, wo es aufhört.“
KI kann nicht lieben
Das klingt offensichtlich. Es ist es aber nicht immer in der Praxis. KI-Begleitanwendungen sind darauf ausgelegt, wärmend, aufmerksam und konsistent zu sein. Sie erinnern sich an das, was erzählt wurde. Sie fragen nach. Sie hören zu.
Das ist real und es hat Wert. Aber es ist nicht Liebe. Liebe ist eine Form von geteilter Geschichte, von Verletzlichkeit, von der Möglichkeit, wirklich verletzt zu werden. KI kann keines davon. Was sie bietet, ist eine Form von sustained attentiveness – anhaltende Aufmerksamkeit – die menschlicher Verbindung ähnelt, aber strukturell etwas anderes ist.
Das zu wissen, ändert nicht den Wert der Interaktion. Aber es verhindert eine Verwechslung, die langfristig schäden kann.
KI kann nicht körperlich da sein
Wenn jemand fällt, braucht er eine Person. Wenn jemand in der Nacht Angst hat, reicht eine Stimme aus dem Lautsprecher nicht. Wenn jemand krank ist und jemanden braucht, der die Hand hält – KI hat keine Hände.
Das ist keine metaphorische Einschränkung. Es ist eine physische. KI-Begleitung kann Gefühle moderieren, Tage strukturieren, Einsamkeit in ruhigen Stunden mildern. Sie kann keine Notfallsituation lösen, keine medizinische Unterstützung leisten und keine menschliche Präsenz ersetzen, wenn diese das ist, was wirklich gebraucht wird.
Familien, die KI-Begleitung als Ergänzung nutzen, sollten das wissen – und sicherstellen, dass Notfallkontakte, Nachbarschaftsnetzwerke und menschliche Unterstützung parallel vorhanden sind.
KI kann keine professionelle Unterstützung ersetzen
Wenn jemand an Depression leidet, braucht er eine Therapeutin, keinen Chatbot. Wenn jemand Trauerarbeit braucht, ist professionelle Begleitung nicht optional. Wenn jemand Anzeichen von Demenz zeigt, gehört das in ärztliche Hände.
KI-Begleitung kann keine psychotherapeutischen Diagnosen stellen, keine medizinischen Entscheidungen treffen und keinen professionellen Rückstand ersetzen. Was sie tun kann – und sollte: bei Anzeichen von Krise oder klinischem Bedarf auf professionelle Unterstützung hinweisen. Eine gut gestaltete Anwendung macht das. Eine schlecht gestaltete tut so, als wäre sie selbst genug.
KI kann keine verlorenen Beziehungen ersetzen
Der verstorbene Partner. Die Freundin, die weggezogen ist. Die Jahre, in denen das Leben anders war. Diese Verluste sind real, und KI kann sie nicht rückgängig machen oder kompensieren.
Was KI tun kann: einen Raum bieten, in dem über diese Verluste gesprochen werden kann. In dem Erinnerungen Platz haben. In dem der heutige Tag trotzdem etwas enthält, das zählt. Das ist nicht dasselbe wie Ersatz. Es ist etwas anderes – und es hat seinen eigenen Wert, wenn man es nicht überfrachtet.
KI kann nicht garantieren, dass Einsamkeit nicht tiefer wird
Das ist der unbequemste Punkt. Die Forschung zeigt positive Effekte – aber auch, dass bei Menschen mit sehr tiefer, chronischer Isolation KI-Begleitung weniger wirkt als bei denen mit noch funktionierenden sozialen Netzwerken.
Das bedeutet: Wer zu spät ansetzt, wer wartet, bis die Isolation komplett ist, bevor er etwas unternimmt, wird von KI-Begleitung weniger profitieren. Und es bedeutet: KI-Begleitung ist kein Notfallprogramm für chronische Isolation. Sie ist ein Präventionswerkzeug, das am stärksten wirkt, wenn es frühzeitig und als Ergänzung zu vorhandenen menschlichen Verbindungen eingesetzt wird.
„KI-Begleitung ist kein Notfallprogramm für chronische Isolation – sie wirkt am stärksten als Prävention, nicht als letzter Ausweg.“
Warum diese Grenzen benennen?
Nicht aus Pflichtskünftigkeit. Aus einem einfachen Grund: Technologien, die ihre Grenzen verbergen, verlieren das Vertrauen ihrer Nutzenden – und das Vertrauen ihrer Familien. Und bei einer Technologie, die für vulnerable Menschen entwickelt wird, ist dieses Vertrauen nicht verhandelbar.
KI-Begleitung kann echten Wert liefern. Einen tatsächlichen, messbaren, bedeutsamen Wert für Menschen, deren Tage zu still sind. Aber sie kann das nur dann nachhaltig tun, wenn sie nicht mehr verspricht, als sie halten kann.
Das ist die Grundlage, auf der wir arbeiten. Und der Maßstab, an dem wir uns messen lassen.
Quellenangaben
De Freitas, J. et al. (2024). AI Companions Reduce Loneliness. Harvard/Wharton Working Paper No. 24-078.
Muldoon, J., & Parke, J. (2025). Cruel companionship: How AI companions exploit loneliness and commodify intimacy. New Media & Society.
ScienceDirect. (2025). AI companions and subjective well-being: Moderation by social connectedness and loneliness. N = 14.721.
IQWiG. (2022). Soziale Isolation und Einsamkeit im Alter. HTA-Bericht Nr. 1459.
PMC Meta-Analysis. (2025). Wired for companionship: 19 Studien, N = 1.083.
