Forschung

Professor Stettberger über die Frage, ob KI uns Empathie beibringen kann.

Porträt Herbert Stettberger

Navel ist ein toller Gesprächspartner. Lächelnd fragt er nach dem Wohlbefinden, erinnert sich an frühere Gespräche, geht auf Fragen ein und hat immer ein Witzchen parat. Zudem weiß er zu jedem Thema etwas zu sagen. Mehr als jeder Mensch sogar, denn Navel ist eine trainierte KI.

Mit 75 Zentimetern Größe, Kulleraugen und Strickmütze auf dem Kopf sieht der humanoide Roboter dabei auch noch niedlich aus. Derzeit wird er in Pflege- und Altenheimen eingesetzt, um Gesellschaft zu leisten und zu unterhalten. "Diese Art soziale Roboter gilt als die neueste Technologie", sagt Professor Dr. Dr. Herbert Stettberger, katholischer Theologe an der Pädagogischen Hochschule Heidelberg. Navel baue Blickkontakt auf, könne Mimik und Gestik interpretieren und gehe detailliert auf Gesprächspartner:innen ein – alles Voraussetzungen für empathisches Verhalten.

Und so konnte er auch einen Wissenschaftler wie Herbert Stettberger für sich interessieren, der ihm sogar ein Forschungssemester gewidmet hat. Schon länger forscht der Theologe zu Empathie, vor allem im Rahmen der Religionspädagogik. Nur wenn wir fähig seien, Gefühle, Gedanken und Motive anderer Menschen nachzuvollziehen und ihre Perspektive einzunehmen, könne es zu Verständnis füreinander kommen, sagt er. Dies gelte für den interreligiösen Dialog genauso wie für den Umgang mit Konflikten im Alltag. "Solche empathischen Kompetenzen zu fördern, ist auch eine Aufgabe des modernen Religionsunterrichts."

Schüler:innen testen sozialen Roboter

Vielleicht kann hier aber künftig KI unterstützen? Was in Altenheimen funktioniert, könnte auch in der Arbeit mit Schüler:innen interessant sein, dachte sich der Theologe. Gemäß dem Grundsatz "Empathie erzeugt Empathie", könnten Heranwachsende mit einem sozialen Roboter empathische Kompetenzen einüben. Stettberger nahm Kontakt zu Navels Hersteller und Wissenschaftler:innen in der KI-Forschung auf. Seine Recherche mündete schließlich in einem gemeinsamen Forschungsprojekt mit Professor Dr. Klaus Bengler, der an der TU München zu Ergonomie und der Schnittstelle Mensch-Maschine forscht.

Am Münchner Technologiezentrum ließ das Team Gymnasialschüler:innen der 7. bis 12. Klassen zehnminütige Gespräche mit Navel führen. Im Anschluss werteten sie die aufgezeichneten Gesprächsverläufe aus. Dabei beobachteten sie Interaktion, Gesprächstiefe und Empathie-Effekte: Wie gut gelang es beiden Seiten, sich in das Gegenüber zu versetzen oder Gefühle und Gedanken zu spiegeln? Die mitgebrachten Themen der Schüler:innen, reichten von Eiskunstlaufen bis zum Philosophieren über Religion und die Liebe. Wie die Videos zeigen, fragte Navel interessiert nach, fand beispielsweise tröstende Worte für den letzten Platz im Eiskunstlauf oder hatte auch eine Meinung zu Religion und Toleranz.

Das Gespräch sei angenehm gewesen, gaben die Teilnehmer:innen in den folgenden Einzelinterviews zu Protokoll. Navel sei sympathisch, menschlicher als Tools wie ChatGPT und habe sogar Vorzüge gegenüber der Schulpsychologin oder schulischen Streitschlichtern, weil er "unparteiisch" sei. Es könnte einfacher sein, sich jemandem zu öffnen, der keine kritischen Fragen stelle oder gemein werde, sagte eine Schülerin.

Der Hersteller kann mit so einer Bilanz zufrieden sein: Der soziale Roboter ist darauf trainiert, wertschätzend zu kommunizieren und möglichst menschlich gestaltet – die Forschung spricht hier von Anthropomorphismus. Dazu gehören die eher kindliche Anmutung durch Körpergröße und eine hohe Stimme, aber auch ein gelegentliches Räuspern des Roboters. Bei Bedarf erzählt Navel sogar, dass er in seiner Freizeit gerne liest und Musik hört.

Training für friedlichen Umgang?

"Die Schüler:innen konnten sich zwar nicht unbedingt ein Vertrauensverhältnis zur KI vorstellen, fanden die Interaktion aber überwiegend positiv", berichtet Stettberger. "Aus Studien zur kognitiven Empathie haben wir signifikante Hinweise, dass solche Gespräche empathische Kompetenzen fördern können." Der Wissenschaftler plädiert dafür, den Einsatz von Navel an Schulen ernsthaft zu erwägen. Mit dem Roboter könnten Schüler:innen den Perspektivwechsel in Gesprächen trainieren. "Schon diese Grundeinübung könnte Konflikte an Schulen reduzieren."

Aber sollten Schüler:innen die zutiefst menschliche Empathie nicht von Menschen lernen - anstatt einer Maschine, die nur simuliert? Und was hält ein Theologe davon, dass Kinder ihr Gottesbild im Gespräch mit einer KI formen? Solange Schulen zu wenig Personal und Zeit hätten, intensive Gespräch mit Schüler:innen zu führen, halte er so ein "Ergänzungskonzept" für ethisch vertretbar, sagt Herbert Stettberger dazu. Es sei unwesentlich, dass eine Maschine nicht wirklich Empathie empfinde, die verbalen Impulse und die Mimik des Roboters genügten für den Lernprozess. Wenn dabei auch Fragen zu Gott und Religion diskutiert würden, könne das ein zusätzlicher wertvoller Impuls sein.

Eine Gefahr sieht er eher darin, dass Heranwachsende sich zu sehr beeindrucken lassen oder abhängig werden, vom immer verständnisvollen Gesprächspartner. "Schüler:innen müssten sich im Klaren sein, dass es sich um eine Maschine handelt, Schulen müssten die Gespräche begleiten", so der Theologe. Ohnehin brauche es eine Langzeitstudie, um Verhaltensveränderungen nach den Gesprächen zu messen. Für die will er sich mit dem Team der TU München einsetzen, falls sich die nötigen Gelder und Unterstützer:innen finden. "Ich fände das spannend und kann mir vorstellen, dass man nach 2-3 Jahren verstärkte Empathie-Kompetenzen bei Kindern feststellt."

Weitere Informationen finden Sie unter www.ph-heidelberg.de/katholische-theologie-religionspaedagogik.

Text: Antje Karbe
Foto: Dr. Birgitta Hohenester