Ein Thermometer kann nicht frieren
Ende März ging es in der Tagung “Die Mensch-Maschine-Gleichung” um Künstliche Intelligenz, ihre aktuellen Möglichkeiten, ihrer (Un-)Ähnlichkeiten zum Menschen und dessen Lust und auch Furcht im Umgang mit ihr. Der Tagungsbericht von Alix Michell gibt einen Überblick.
Unter einer Gleichung versteht man in der Mathematik eine Aussage über die Gleichheit zweier Terme. Angelehnt daran hat Studienleiterin Alix Michell in ihrer Tagung vom 26. bis 28.03.2021 (Informationen finden Sie hier) Mensch und Maschine gegenübergestellt. In drei Tagen wurden Zuschreibungen von Künstlichen Intelligenzen (KI) unter die Lupe genommen, die sich im Sprachgebrauch zur Benennung technischer Prozesse manifestiert haben. Nicht selten entstammen sie einem Vokabular, das insbesondere Menschliches bezeichnet: Wir sprechen von künstlicher Intelligenz und von Lernen, fragen nach der Möglichkeit eines Bewusstseins von KI, nach Kreativität und dergleichen mehr.
Das Menschliche scheint also in der Regel als das Maß zu fungieren, anhand dessen über Funktionieren oder Nicht-Funktionieren einer KI entschieden wird: Ist sie in der Lage, menschliche Fähigkeiten wie Sprache oder Entscheidungsprozesse möglichst gut nachzuahmen, funktioniert sie.
Doch was bedeutet es eigentlich, wenn wir angesichts dieser Techniken von Intelligenz sprechen? Wie funktioniert algorithmisches Lernen? Gibt es sie, die digitale Seele? Und müssen wir technische Entwicklungen mit Sorge betrachten?
Künstliche Intelligenzen – Realität und Mythos
Die Informatikerin, Soziologin und Philosophin Ellen König eröffnete die Konferenz, indem sie auf eben diese Fragen einging, die auch den öffentlichen Diskurs prägen: “Ich hab nachgeschaut, beim Handelsblatt und bei der Tagesschau, was dort in den letzten Monaten zum Thema ‘Künstliche Intelligenz’ veröffentlich wurde und da gibt es dann Schlagwörter wie: ‘Werden uns Roboter unsere Jobs wegnehmen? Wie gut dichtet eine KI – kann eine KI mit einem menschlichen Dichter mithalten? Sollte die EU mehr in KI investieren?'”
Insbesondere die Sorgen um die Austauschbarkeit von Mensch und Maschine führte der Medien- und Kulturwissenschaftler Prof. Dr. Clemens Apprich auf eine althergebrachte Frage der Psychoanalyse zurück: Wer spricht? Der Psychiater und Psychoanalytiker Jacques Lacan, so Apprich, bezeichne diese gar als die zentrale Frage der Paranoia: Ihre unbehagliche Konnotation sei also nichts, was ausschließlich dem technischen Zeitalter eigen wäre. Dennoch erlebe die sorgenbehaftete Frage nach der Identität einer sprechenden Instanz eine Renaissance in diesen Zeiten, von Big Data und Machine Learning, die “von der Angst geprägt [seien], dass sich der Mensch in einer Welt digitaler Geräte und algorithmischer Schaltkreise aufzulösen beginne.”
Ellen König verfolgte mit Hinsicht auf diesen sorgenvoll geführten medialen Diskurs, eine technikorientierte Perspektive – sie empfahl in ihrem Vortrag, genauer hinzusehen, bei welchen KI-verbundenen Debatten es sich um Realitäten und bei welchen es sich um Mythen handle. Um das auseinanderzudividieren, stellte sie den Status Quo der Künstlichen Intelligenzen vor. Dieser beinhalte derzeit lediglich den Einsatz von so genannten schwachen KI. Eine schwache KI zeige keinerlei menschenähnliche kognitive Fähigkeiten oder Eigenschaften, “sondern beschränkt sich auf ‘intelligente’ Problemlösungsstrategien für spezifische Aufgaben.” Eine solche KI kann zum Beispiel entweder Bilderkennung leisten oder Schach spielen jedoch nicht mehr als das.
Bei darüber hinaus gehenden starken KI oder Superintelligenzen handle es sich noch um Zukunftsmusik, wenngleich das Thema im öffentlichen Diskurs sehr präsent sei.
Eine Superintelligenz, ein “Wesen oder Maschinen mit dem Menschen in vielen oder allen Gebieten überlegener Intelligenz” ist aus medialen Produktionen wie etwa der amerikanischen Filmreihe The Matrix bekannt. Solche düsteren Bedrohungsszenarien codieren den Begriff der KI im kulturellen Denksystem mit Sorge oder Furcht.
Die Vorstellung einer starken KI gehe, so stellte König heraus, bis in die 1950er Jahre zurück und stelle damit das älteste KI-Konzept dar. Sie beschreibt “die hypothetische Intelligenz eines Computerprogramms, das jede intellektuelle Aufgabe verstehen oder lernen kann, die ein Mensch ausführen kann.” Es handele sich hierbei um eine flexible und deckungsgleiche Imitation menschlicher Fähigkeiten, von der KI-Forschende annehmen, es dauere noch circa 80 Jahre, bis der Mensch fähig sei, sie zu konstruieren.
Dabei entwarf schon der britische Kryptoanalytiker und Informatiker Alan Turing 1950 im so genannten “Turing-Test” ein solches Szenario. Dieser besagt – in aller Kürze – dass eine Technik, die in der Interaktion mit einem Menschen als menschlich wahrgenommen wird auch als menschlich zu bewerten sei.
Apprich betonte an dieser Stelle, Turing habe in seinem Test nicht die Täuschung des Menschen angestrebt, sondern die tatsächliche Möglichkeit einer Kommunikation zwischen Mensch und Computer, beziehungsweise zwischen Computer und Computer in natürlicher Sprache.
Nichtsdestotrotz ergeben sich aus Turings Test Fragen: Wie fluide stellt sich das Menschliche dar, wie verhält es sich mit dessen Einzigartigkeit? Und ist eine Simulation der menschlichen Intelligenz wirklich ohne weiteres gleichzusetzen mit dem Original?
Prof. Thomas Fuchs begegnete diesem aus philosophischer und psychologischer Perspektive mit einem klaren Nein. Hierfür verwies er auf das lateinische “intellegere: einsehen, verstehen, begreifen”. Es beinhalte die Fähigkeit, “sich in ein Verhältnis zur Situation setzen und sich gewissermaßen von außen sehen” können und sei an “Selbstbewusstsein, Reflexivität” gebunden. Ein Thermometer, führte Fuchs an, sei zwar in der Lage, eine Temperatur als Zahl wiederzugeben, es könne aber weder frieren noch sei ihm zu heiß. Ein selbstreflexives Bewusstsein gehe aus psychologischer Perspektive immer einher mit der Befähigung zu Intelligenz. Selbst wenn gewisse menschliche Fähigkeiten simuliert würden, die wir bei Menschen als Ausweis von Intelligenz verstehen – wie etwa das Schachspiel – sei dies eben immer noch eine Simulation von Output und Input. All die Prozesse, die im Gehirn dazwischen geschähen, blieben unantastbar menschlich. Das menschliche Lernen sei dementsprechend als Verknüpfung von Informationen mit leiblichen Erfahrungen zu verstehen. Das maschinelle Lernen hingegeben beschränke sich auf Informationsverarbeitung und sei damit nicht zu vergleichen.
Apprich entwarf darauf aufbauend das Gedankenexperiment der Animation: Wenn Simulation als Automatisierung zur Wiederholung des Immergleichen führe, vielleicht könne Animation eine Alternative darstellen? Denn auch er ist derselben Meinung wie Fuchs, Intelligenz könne nicht nachmodelliert werden – sie beinhalte vielmehr das, was der Kulturantrhopologie Dietmar Kamper als Vorahmung – im Gegensatz zur Nachahmung bezeichnet: Ein ergebnisoffener Prozess in der Auseinandersetzung mit Umwelt. Diese Vorahmung denke Apprich als notwendigen Schritt der Animation von künstlicher Intelligenz im eigentlichen Sinne des Wortes.
Bewusstsein und Seele
Ungeachtet der Einzigartigkeit menschlicher Intelligenz, so Fuchs, erschiene “menschliches Bewusstsein vielen heute nur noch als eine Summe von Algorithmen, eine komplexe Datenstruktur im Gehirn, die im Prinzip auch von elektronischen Systemen realisiert werden könnte; die also nicht mehr an einen lebendigen Körper gebunden ist.” Als solche wäre Bewusstsein zumindest theoretisch rekonstruierbar. Er hielt dagegen, Bewusstsein sei nicht nur das geistlose Durchlaufen von Datenzuständen – es sei Selbstbewusstsein. “Es ist für mich, dass ich Schmerzen habe, wahrnehme, verstehe oder denke.”
Transhumanisten dahingegen, führte Fuchs weiter aus, “propagieren das sogenannte Mind-Uploading. Durch eine Kopie aller Daten des Gehirns soll es möglich werden, unseren Geist in Form von Informationen aus dem Körper zu lösen und in ein künstliches System zu transferieren. Wir würden damit also digitale Unsterblichkeit erlangen. Unseren alternden Körper aus Haut und Knochen loswerden.”
In diese Richtung recherchierten auch Hans Block und Moritz Riesewieck zu ihrem neuen Projekt “Die digitale Seele: Unsterblich werden im Zeitalter Künstlicher Intelligenz”, aus dem sie berichteten. Sie sprachen mit Menschen auf der ganzen Welt, die bereits erste Erfahrungen im Bereich des so genannten Mind-Uploading sammelten. Als Beispiel führten sie den Fall einer südkoreanischen Mutter an, der zu Anfang des Jahres 2020 durch die Medien ging. Die Mutter hatte ihr siebenjähriges Kind durch eine Krankheit verloren. Forschende und KI bildeten die Erscheinung des Kindes anhand von Aufnahmen und Erzählungen nach und so konnten ein letztes Treffen zwischen Mutter und Tochter via VR-Brille stattfinden. Block und Riesewieck beschrieben die zu Tränen gerührte Mutter, die wiederholt ins Leere griff, im intuitiven Versuch, das Kind zu umarmen, das sie als digitalen Avatar sehen konnte.
Im Publikum entwickelte sich eine besorgte Diskussion über den Einfluss einer solchen technischen Möglichkeit auf Trauerarbeit, die insbesondere durch Arbeitende der Seelsorge bereichert wurde.
Sie berichteten, der Mensch neige dazu, humanoide Erscheinungen als menschlich anzunehmen und mit zwischenmenschlichen Emotionen zu begegnen – ein Phänomen, das Thomas Fuchs durch den Anthropomorphismus erklärte: das Zuschreiben menschlicher Eigenschaften auf nicht menschliche Wesen oder Phänomene. In der intuitiven Annahme, das Gegenüber ähnle dem Selbst in bestimmter Weise, werde diesem – trotz besseren Wissens auf rationaler Ebene – mit Gefühlen wie Empathie begegnet.
KI und das große Geschäft
Diesen Anthropomorphismus, gepaart mit der archetypischen Angst vor dem Tod machen sich Konzerne zu eigen, die Mind-Uploading-Programme anbieten.
Wenngleich also die Technik als Projektionsfläche von Furcht oder Sorge fungiert, offenbart sich der profitorientierte Mensch hinter der Technik als das eigentlich zu fürchtende Wesen.
Ebenso verhält es sich auch angesichts der Arbeitsweise schwacher Intelligenzen, wie sie in unserem Alltag vielfältig Verwendung finden, ein Aspekt, den insbesondere Ellen König als auch die Datenschutz-Aktivistin Katharine Jarmul in ihren Vorträgen fokussierten. Ellen König führte hier exemplarisch eine Studie an, die sich mit der Gesichtserkennung eines Handys beschäftigt. Diese funktioniere für bestimmte Bevölkerungsgruppen wie weiße Männer signifikant besser als für BIPoC, wodurch die Funktionsweise des Geräts für viele Menschen stark eingeschränkt wird. König erklärte: “KI sind nur so gut, wie die Daten, auf denen sie basieren. Und wenn Daten aus Systemen kommen, die von vornherein irgendwie nicht sauber sind oder die Realität nicht gut abbilden, dann ist auch die KI nicht besonders gut.” Ein Algorithmus könne nur Daten erkennen, mit denen er auch trainiert wurde, die er also gelernt habe. Zeichne sich in dieser Datenmenge bereits eine patriarchale, weiße Struktur ab, werde diese durch den Algorithmus reproduziert. Dabei, betonte Katharine Jarmul, sei immer zu erinnern: Algorithmen werden von Menschen programmiert und trainiert. Hier reproduzierte Hegemoniestrukturen stammen also aus Menschenhand und bilden bereits bestehende diskriminierende Verhältnisse einer Gesellschaft ab. Auch hier sei der Mensch hinter der Technik mehr zu fürchten, als die Technik selbst.
Jarmul betonte aber auch, dass wir diesem nicht ausgeliefert sein müssten und verfolgte in ihrem Vortrag einen selbstermächtigenden Ansatz. Sie plädierte dafür, das Potenzial an Macht und Kapital, das sich hinter der Flut an Daten verbirgt, die der Mensch täglich im Netz hinterlässt, nicht “Big Five” (Google, Apple, Microsoft, Facebook, Amazon) zu überlassen. Sie stellte verschiedene Möglichkeiten vor, Privatsphäre und Datenschutz zu bewahren, wie beispielsweise das Ausschöpfen der DSGVO. In der Berufung auf diese sei es möglich, Konzerne wie Google zur Herausgabe der gespeicherten persönlichen Daten aufzufordern. Diese könnten dann an gemeinnützige Institutionen wie Datenstiftungen übergeben werden, wo die Daten anonymisiert und ohne Vorratsdatenspeicherung ausgewertet und zur Weiterverwendung (zum Beispiel in der Medizin) aufbereitet werden könnten.
KI – Mach du.
Die Konferenz bot auch Raum für einen spielerischen Umgang mit KI und Robotik mit Perspektiven aus der Kunst.
Sabine Himmelsbach, Direktorin im Haus der elektronischen Künste in Basel, führte in den kunsthistorischen Kontext der Verwendung von KI in der Kunst ein und stellte die Fragen nach der Möglichkeit von Autorschaft durch KI. Von Harald Cohen über Moritz Klingemann bis zu Justine Emard führte sie hier verschiedene exemplarische Arbeiten ins Feld. KI übernehme dabei stets die Rolle eines Werkzeuges und nie die der Autorschaft. Kreativität und die Fähigkeit, Neues zu schaffen sei etwas ganz und gar Menschliches und bliebe Qualität der Künstlerin hinter dem Werk.
Der Regisseur Stefan Kaegi (Rimini Protokoll) schloss den Samstagabend mit seinem Stück “Unheimliches Tal/ Uncanny Valley” ab, das 2018 in den Münchner Kammerspielen aufgeführt wurde. Protagonist und einziger Schauspieler des Stücks ist ein humanoider Roboter, der nach dem Vorbild des Schriftstellers Thomas Melle angefertigt wurde. Der Roboter tritt als Thomas Melle auf. Dieser berichtet von seiner Erkrankung, manischer Depression, die es ihm manchmal unmöglich mache seinen Pflichten, Auftritten und Interviews nachzukommen. Melle2, so der informelle Name des Roboters diene nun dazu, diese Momente auszufüllen und an der Stelle des menschlichen Melles, Auftritte zu übernehmen. Dabei zeigt sich der Roboter als empfindsamer Schauspieler, er äußert sich sensibel, zeigt sich nachdenklich, manchmal zögernd.
Im Gespräch mit der Theater- und Kulturwissenschaftlerin Miriam Frank eröffnete Kaegi unter anderem den historischen Kontext des Einsatzes von Technik im Theater, um Illusion zu erzeugen, der bis zum Deus ex Machina im griechischen Theater zurückzuverfolgen sei. “Heutzutage wird in den meisten Theatern Licht, Ton, Video und Maschinerie mithilfe von aufwändiger Technik gefahren. Ins Zentrum der Bühne auch noch eine Maschine zu setzen ist da ein letztes Tabu, das zu brechen im Einzelfall konsequent und interessant sein kann. Aber das heißt nicht, dass ab jetzt nur noch Roboter Theater spielen werden.”
Die Tagung wurde durch einen Beitrag der österreichischen Schriftstellerin Raphaela Edelbauer abgerundet, die am Sonntagmorgen aus ihrem neuen Roman “Dave” las. Der Roman erzählt die Geschichte einer postapokalyptischen Gesellschaft, die – jeglicher Spiritualität entledigt – eine Superintelligenz zu erschaffen strebt, die das schöne und gute (Zusammen-)Leben aller gewährleisten soll. In den gelesenen Textstellen kulminierten die ethischen Fragestellungen, welche die Tagungsteilnehmenden die letzten zwei Tage begleitet hatten. So konnten diese, nah am Text, abschließend überblickend und vor einer neuen, literarisch-philosophischen Perspektive, die nicht zuletzt durch Edelbauer selbst stark vertreten wurde, diskutiert werden.
Alix Michell
Weitere Informationen zum Thema:
→ Alix Michell hat im “Seefunken”-Podcast ebenfalls von ihrer Tagung “Die Mensch-Maschine-Gleichung” berichtet. Unter diesem Link können Sie ihn hören.
→ In diesem Interview hat der Theatermacher Stefan Kaegi mit Studienleiterin Alix Michell über Begegnungen mit Humanoiden gesprochen.
Bild: Unheimliches Tal / Uncanny Valley (Foto: (c) Gabriela Neeb)