Kann Technik heilsame Beziehungen stiften?

Die Zeit ist knapp bemessen im Gesundheitssystem. Immer weniger bleibt übrig für ein Gespräch zwischen den Menschen, die betreuen und behandeln und denen, die versorgt werden. Verlockend erscheinen hier die Möglichkeiten der Künstlichen Intelligenz, erste Pflegeroboter sind bereits im Einsatz. Doch diese Abhilfe erfordert zunächst die Auseinandersetzung von uns allen mit neuen Technologien, schreibt Arne Manzeschke, Professor für Anthropologie und Ethik für Gesundheitsberufe. Er hält eine „gemeinsame menschliche Anstrengung“ für dringend geboten.

Von Prof. Dr. theol. Arne Manzeschke

Worte wirken. Es ist gut belegt, dass eine offene, vertrauensvolle Kommunikation das medizinische Handeln und die gesundheitliche Heilung unterstützt. Auch die Seelsorge setzt auf die Kraft des gesprochenen und zugesprochenen Wortes. Diese Erkenntnis, dass Worte helfen und heilen können, verbindet somatische Medizin, Psychotherapie und Theologie.

Allerdings: Häufig fehlt die Zeit, und es fehlen die Menschen, um längere und substanzielle Gespräche zu führen. Aus der Einsicht in die Wirksamkeit der Worte erwächst immer seltener die Konsequenz, wirksamen Worten und heilsamen Beziehungen Raum und Zeit zu verschaffen. Schon lange wird beklagt, dass das Gespräch im System der Gesundheitsversorgung nur eine marginale und statistisch sinkende Rolle spielt. Wo aber der Mangel an Menschen drängend wird, ist der Ruf nach Technik nicht fern. Entsprechend erscheint es naheliegend, den Mangel an Personal durch Roboter, Chatbots, Avatare und andere technische Systeme zu kompensieren. Der enorme Leistungsschub bei Robotern und Künstlicher Intelligenz macht diesen Wechsel naheliegend und plausibel. Viele von uns sprechen schon täglich mit Chatbots, sie kommunizieren und interagieren mit Maschinen, warum dann nicht auch in Gesundheitsfragen? Stellt bald ein Roboter die Diagnose? Vertrauen wir unsere Sorgen einer KI an? Über all dem schwebt die Frage: Kann auch Technik heilsame Beziehungen stiften? Reicht den (allen, vielen, manchen?) Menschen ein freundlich formulierter Satz, braucht es dafür unter Umständen gar nicht einen dazu gehörigen Menschen? Sind Maschinen vielleicht die besseren Zuhörer, weil sie nicht bewerten? Das sagten Soldaten mit posttraumatischen Belastungsstörungen, die sich eher einem entsprechend trainierten Chatbot anvertrauen wollten als einem psychotherapeutisch geschulten Menschen.

„Die Menschheit steht an der Schwelle zu einer Ära, in der immer raffiniertere Roboter, Bots, Androiden und andere Formen künstlicher Intelligenz bereitstehen, um eine neue industrielle Revolution zu entfesseln, die keinen Stein unserer Gesellschaft auf dem anderen lassen wird. Die Entwicklung von Robotik und künstlicher Intelligenz wirft rechtliche und ethische Fragen auf, die eine unmittelbare Intervention auf der Ebene der Europäischen Union erfordern.“ Das Europäische Parlament hat es 2017 Jahr so drastisch formuliert und damit begonnen, gesetzliche Regulierungen auf den Weg zu bringen – zuletzt im EU AI-Act in diesem Jahr. Die Etablierung großer Sprachmodelle (Large Language Models) im Bereich des Maschinellen Lernens hat die Dringlichkeit einer rechtlichen und ethischen Regulierung dieses technologischen Schubs noch einmal eindrucksvoll unterstrichen. Global betrachtet steht die Menschheit vor einem Dilemma. Die Leistungsfähigkeit digitaler Technologie erscheint so vielversprechend, dass man auf die damit erreichbaren Möglichkeiten nicht verzichten will. Auch ist kaum noch vorstellbar, die bereits erreichte Abhängigkeit von diesen technischen Systemen in so grundlegenden Infrastrukturen des öffentlichen Lebens wie Energieversorgung, Verkehr, Kommunikation oder Finanzen noch einmal zurückzudrehen. Die Gefahr, dass diese Leistungsfähigkeit zugleich menschliche Ordnungen in so grundstürzender Weise verändern wird, dass wir von Ordnungen, gar von guten Ordnungen für ein gutes Leben aller, nicht mehr werden sprechen können, ist unkalkulierbar groß.

Wie soll man nun eindämmen, kontrollieren und regulieren, was in Teilen systematisch gar nicht kontrollierbar und regulierbar ist? Gemeint ist damit das Phänomen, dass eine selbstlernende Künstliche Intelligenz in diesem Lernprozess für Menschen nicht kalkulierbar, nicht berechenbar und deshalb allenfalls bedingt kontrollierbar ist. Was hierbei so beklemmend ist, ist weniger die Aussicht, dass eine starke Künstliche Intelligenz aus finsteren Motiven (die sie als technisches System gar nicht haben kann) die Menschen unterwirft, und der Knecht zum Herrn wird. Die Gefahr besteht wohl eher darin, dass wir Menschen uns aus Naivität, Bequemlichkeit oder Dummheit in eine Abhängigkeit von den technischen Systemen bringen, in der wir ein aufgeklärtes, selbstbestimmtes und ethisch verantwortetes Leben gar nicht mehr führen können. Dass diese Technologie obendrein geeignet erscheint, menschliche Machtausübung in populistischer, autoritärer und undemokratischer Weise zu unterstützen, macht es umso dringlicher, nach Wegen und Maßnahmen einer demokratischen und ethischen Kontrolle für die Entwicklung, Verbreitung und Anwendung dieser Technologien zu rufen.

Kritisch und aufmerksam wird derzeit verfolgt, dass der Mensch in immer mehr Handlungsfeldern die Autorschaft (bei gleichzeitig unverminderter Verantwortung) verlieren könnte, weil die Maschinen in ihrer Leistungsfähigkeit einfach besser sind und zunehmend die Standards setzen. Der Mensch darf sich zwar als Schöpfer dieser großartigen Maschinen sehen. Der Stolz darauf hält sich allerdings in Grenzen. „Prometheische Scham“, wie der Philosoph Günther Anders das Gefühl genannt hat, von der eigenen Schöpfung überrundet und als zu leicht befunden zu werden. Wie werden wir Menschen damit umgehen? Mit Aggression, Autoaggression, Regression oder auch Konstruktion? Müssen wir Menschen uns selbst ebenfalls aufrüsten, um mit den immer leistungsfähigeren Maschinen noch mithalten zu können? Die weitere Entwicklung ist keineswegs ausgemacht – und es wird der gemeinsamen menschlichen Anstrengung bedürfen, hier einen konstruktiven Weg zu finden, der uns weder mit Maschinenstürmerei noch mit Unterwerfung unter die Technik überreagieren lässt. Gefragt ist wohl vielmehr ein erneuertes Selbstverständnis des Menschen, bei dem wir erstens Korrekturen an einem wohl etwas zu optimistischen Selbstbild hinsichtlich unserer menschlichen Einzigartigkeit, unserer rationalen und moralischen Leistungsfähigkeit vornehmen, und zweitens überlegen, welchen Platz wir den intelligenten Maschinen in dieser Welt neben Tieren, Menschen und Göttern zubilligen wollen – oder auch einräumen müssen.

Nach welchem Bilde konstruieren wir die neuen intelligenten Maschinen, wieviel Freiheit schreiben wir ihnen ein? Wie können wir uns darauf vorbereiten, dass sie unsere menschliche Freiheit beschränken werden – auch wenn das nicht in unserem Interesse ist? Diese und weitere Fragen sollten meines Erachtens nicht auf eine Debatte im Kreis der Expertinnen und Experten eingeschränkt werden. Forschung, Entwicklung und Einsatz – und nicht zu vergessen: die Entsorgung – solcher Systeme betreffen die gesamte Gesellschaft. Im Wortsinn geben wir der Gesellschaft mit den Entscheidungen, die wir in dieser Sache treffen, ein neues Gesicht. Und es liegt an unser aller Achtsamkeit, Verantwortlichkeit und Gestaltungswillen, dass es keine Fratze, sondern ein menschenfreundliches Antlitz ist

Das 35. Medizin-Theologie-Symposium im Wildbad Rothenburg ob der Tauber widmet sich diesen grundlegenden Fragen und lädt zum Diskurs darüber ein. Eingeladen sind Fachleute aus Medizin und Robotik, aus Seelsorge und Therapie. Das Programm geht der Wirkung des Gesprächs in der Arzt-Patienten-Beziehung und in der (Klinik-) Seelsorge nach: Was bedeuten hier leib-seelische Kommunikation, was wird als unterstützend oder übergriffig erlebt, welche Rolle spielen „objektive“ Informationen und „subjektives“ Empfinden? Welche Rolle können technische Systeme bei der Diagnosevermittlung oder bei der Therapieentscheidung spielen? Tatsächlich werden ja Überlegungen angestellt, Künstliche Intelligenz nicht nur in Verwaltungsabläufen und bei biomedizinischen Laborarbeiten einzusetzen, sondern auch in der Seelsorge, in der Psychotherapie oder Rehabilitation.

„Sprechende Medizin“ wird gerne als Gegenentwurf zu einer übertechnisierten, überteuerten und unpersönlichen „Apparatemedizin“ charakterisiert. Sie soll Patientinnen und Patienten mit ihrer ganzen Persönlichkeit, Krankheits- und Lebensgeschichte wahrnehmen und ansprechen. Ob das jemals zutraf und in welcher Größenordnung, wird ebenso Thema sein wie die aktuellen technischen Entwicklungen.

Der Roboter Navel, der aktuell in einigen deutschen Pflegeheimen erprobt wird, kann von den Teilnehmenden in der persönlichen Interaktion erfahren werden. Außerdem diskutieren Experten und Publikum über den Film „Better than human“, in dem ein Chatbot die Rollen von Seelsorger, bester Freundin und Therapeutin übernommen hat und die Nutzenden anschließend befragt wurden.

Das 35. Medizin-Theologie-Symposium bietet in einem der Romantik verpflichteten Ambiente Raum und Zeit, um notwendige Gespräche über High-Tech zu führen, die uns alle etwas angehen müssten: Wie wollen wir die Sorge von kranken, pflege- und hilfebedürftigen Menschen so gestalten, dass sie gut genannt werden kann? Welche Rolle sollen dabei technisch intelligente Systeme spielen, und was fordert das von unserer menschlichen Intelligenz?

Über den Autor

Arne Manzeschke ist Professor für Anthropologie und Ethik für Gesundheitsberufe an der Evangelischen Hochschule Nürnberg und Leiter der Fachstelle für Ethik und Anthropologie im Gesundheitswesen.

Hinweis:

Prof. Dr. theol. Arne Manzeschke leitet gemeinsam mit Prof. Dr. med. Andreas Mackensen (Universitätsklinikum Erlangen) und Dr. theol. Hendrik Meyer-Magister (Evangelische Akademie Tutzing) die Tagung „Sprechende Medizin und intelligente Maschinen“ (35. Medizin-Theologie-Symposium), die vom 4. – 6. Oktober 2024 in Rothenburg ob der Tauber stattfindet.

Alle Infos zum Programm und den Anmeldemodalitäten finden Sie hier: https://www.ev-akademie-tutzing.de/veranstaltung/sprechende-medizin-und-intelligente-maschinen/

Bild: Prof. Dr. Arne Manzeschke (Foto: Evangelische Hochschule Nürnberg)