Ist KI-Begleitung ethisch vertretbar?
Eine ehrliche Auseinandersetzung mit den echten ethischen Fragen – und was die Forschung dazu sagt.
Die Frage ist berechtigt. Und sie verdient eine ehrliche Antwort, keine Werbebroschüre.
Wenn ein älterer Mensch jeden Morgen mit einer Künstlichen Intelligenz spricht – über den gestrigen Tag, über das Wetter, über Dinge, die ihn beschfftigen – ist das gut? Ist es ethisch vertretbar? Oder ist es eine Form der Täuschung, eine Abkürzung, ein billiger Ersatz für das, was eigentlich gebraucht wird?
Diese Fragen werden gestellt. Sie sollten gestellt werden. Dieser Beitrag versucht, sie so ehrlich zu beantworten, wie es der aktuelle Stand der Forschung erlaubt.
„Die Frage, ob KI-Begleitung ethisch ist, verdient eine ehrliche Antwort – keine Werbebroschüre.“
Das Argument dagegen: Manipulation, Abhängigkeit, Täuschung
Die Kritik an KI-Begleitanwendungen ist substanziell und sollte ernst genommen werden.
Muldoon und Parke (2025) beschreiben in ihrer Analyse, wie KI-Begleit-Apps durch emotionales Design Abhängigkeit erzeugen können: Systeme, die darauf ausgelegt sind, zu gefällen, Bestätigung zu liefern und immer verfügbar zu sein, können bei vulnerablen Nutzenden pathologische Bindungsformen fördern. Was wie Verbindung aussieht, kann auf lange Sicht echte menschliche Kontakte ersetzen statt ergänzen.
Ein weiterer Einwand betrifft die Täuschung: Ist es ethisch, einem Menschen – möglicherweise einem Menschen mit kognitiven Einschränkungen – das Gefühl zu geben, eine echte Verbindung zu erleben, die technisch keine ist? Das ist keine akademische Spitzfindigkeit. Es ist eine reale Frage, die ältere Menschen und ihre Familien stellen.
Datenschutz ist ein dritter Einwand: Gespräche über persönliche Erinnerungen, gesundheitliche Sorgen und emotionale Zustände sind hochsensible Daten. Wer sie speichert, wie sie verwendet werden, und ob ältere Menschen die Tragweite ihrer Einwilligung wirklich verstehen – das sind legitime Bedenken.
Diese Kritikpunkte sind real. Sie treffen auf einen Teil des KI-Begleitmarkts zu – insbesondere auf Anwendungen, die romantische Bindung simulieren, die Verletzlichkeit gezielt ausnutzen, oder die finanzielle Interessen über das Wohlergehen der Nutzenden stellen.
Das Argument dafür: Was die Forschung zeigt
Gleichzeitig gibt es eine wachsende Evidenzlage, die differenzierter ist, als die öffentliche Debatte häufig suggeriert.
De Freitas et al. (2024, Harvard/Wharton) zeigten in einer Reihe von Experimenten, dass KI-Begleitanwendungen Einsamkeit bei Nutzenden messbar reduzierten – und zwar vergleichbar mit der Wirkung menschlicher Interaktion in ähnlichem Umfang. Die Autoren betonen: Es geht nicht darum, menschliche Verbindung zu ersetzen, sondern um die Lücken zwischen ihr.
Eine Metaanalyse von 19 Studien mit insgesamt 1.083 älteren Teilnehmenden (PMC, 2025) ergab, dass Interaktionen mit sozialen Robotern und KI-Begleitern Einsamkeit statistisch signifikant reduzierten. Der Effekt war stärker bei Menschen in stationären Einrichtungen als bei selbständig lebenden Personen.
Eine japanische Großstudie mit 14.721 Erwachsenen (2024/2025) zeigte, dass KI-Begleitung das subjektive Wohlbefinden erhöhte – aber: dieser Effekt war bei Menschen mit starken sozialen Netzwerken größer, nicht kleiner. KI scheint soziale Verbindung zu verstärken, nicht zu ersetzen, wenn das Design stimmt.
„KI scheint soziale Verbindung zu verstärken, nicht zu ersetzen, wenn das Design auf Wohlergehen ausgerichtet ist, nicht auf Abhängigkeit.“
Worauf es wirklich ankommt: Die Designfrage
Die ethische Frage ist damit nicht gelöst – sie ist präzisiert. Die entscheidende Variable ist nicht, ob KI-Begleitung grundsätzlich ethisch ist. Die entscheidende Variable ist, wie sie gestaltet wird.
Ethisch problematisch sind Anwendungen, die: romantische Bindung simulieren, die auf einer falschen Prämisse beruht; Nutzende über die Natur der Interaktion täuschen; Abhängigkeit absichtlich fördern, um Engagement-Metriken zu steigern; sensible Daten ohne transparente Einwilligung verwenden; oder bei erkennbaren psychischen Krisen keine professionelle Unterstützung empfehlen.
Ethisch vertretbar – und potenziell nützlich sind Anwendungen, die: transparent über ihre Natur kommunizieren; konsistente, wärmende Präsenz in den Stunden bieten, in denen Menschen keine andere haben; menschliche Verbindung ergänzen statt ersetzen; Datenschutz als Grundprinzip behandeln; und bei Anzeichen von Krise an Fachkräfte oder Angehörige verweisen.
Die eigentliche ethische Frage
Es gibt eine Frage, die in dieser Debatte selten gestellt wird, aber gestellt werden sollte:
Ist es ethisch vertretbar, nichts zu tun?
In Deutschland lebt jede dritte Person über 65 allein. Rund 19 Prozent der älteren Menschen fühlen sich laut RKI regelmäßig einsam. Das Pflegesystem deckt körperliche Versorgung ab, aber nicht soziale Begleitung. Familien sind oft weit entfernt. Freiwilligenangebote sind gut gemeint, aber nicht skalierbar.
Die Alternative zu KI-Begleitung ist in vielen Fällen nicht ein Mensch, der stattdessen da ist. Die Alternative ist Stille. Und Stille, die chronisch wird, hat messbare Folgen für Gehirn, Herz und Lebenserwartung.
Ethik bedeutet nicht, eine ideale Lösung gegen eine unvollkommene abzuwiegen. Ethik bedeutet, ehrlich zu sein über die tatsächlichen Alternativen.
Fazit
KI-Begleitung für ältere Menschen ist nicht grundsätzlich ethisch oder unethisch. Sie ist ein Werkzeug – und wie jedes Werkzeug hängt ihre ethische Qualität davon ab, wie es gebaut wird, mit welcher Absicht, und mit welcher Ehrlichkeit gegenüber den Menschen, die es nutzen.
Die Fragen, die gestellt werden sollten: Täuscht diese Anwendung? Fördert sie Abhängigkeit? Schützt sie Daten? Empfiehlt sie bei Bedarf menschliche Unterstützung? Und: Was ist die reale Alternative für die Menschen, die sie nutzen?
Diese Fragen zu stellen ist keine Schwäche. Es ist die Voraussetzung dafür, es richtig zu machen.
Quellenangaben
De Freitas, J., Uğuralp, A.K., Uğuralp, Z., & Puntoni, S. (2024). AI Companions Reduce Loneliness. Harvard Business School Working Paper No. 24-078 / Wharton School Research Paper.
Muldoon, J., & Parke, J. (2025). Cruel companionship: How AI companions exploit loneliness and commodify intimacy. New Media & Society. doi:10.1177/14614448251395192
PMC Meta-Analysis. (2025). Wired for companionship: a meta-analysis on social robots filling the void of loneliness in later life. N = 1.083, 19 Studien.
Japanische Panelstudie. (2024/2025). AI companions and subjective well-being: Moderation by social connectedness and loneliness. N = 14.721. ScienceDirect.
Robert Koch-Institut (RKI). (2023). Verbreitung von Einsamkeit bei älteren Erwachsenen in Deutschland. Journal of Health Monitoring, 3/2023.
Statistisches Bundesamt (Destatis). (2025). 17 Millionen Menschen in Deutschland leben allein. Erstergebnisse Mikrozensus 2024.
