Künstliche Intelligenzen staunen nicht

Our Emotional Participation in the World
English Translation
0:00
0:00
Audio Test:
Interview
Published On:

October 23, 2023

Featuring:
Prof. Johannes Hoff
Categories of Inquiry:
Tags
No items found.
Issue:
Ausgabe 40/2023
|
October 2023
Auf der KIppe
Explore this Issue

Please become a member to access evolve Magazine articles.

Die Kraft lebendigen Verstehens

Als Theologe setzt sich Johannes Hoff mit den spirituellen Fragen im Umgang mit digitalen Technologien auseinander. Ein Gespräch über die Wahrheit, das Staunen und verkörperte Einsicht.

evolve: Was bedeutet die gegenwärtige Entwicklung der künstlichen Intelligenz kulturgeschichtlich für uns als Menschheit?

Johannes Hoff: Der Durchbruch von GPT-Technologien wie ChatGPT ist vor allen Dingen ein kulturelles Ereignis. Die technische Entwicklung hat nicht auf diesen Durchbruch zugesteuert. Noch vor zwei Jahren haben Forscher gemeint, wir bewegten uns auf einen »KI-Winter« zu, weil die Forschung nicht mehr richtig vorangehe und diese Technologien unkalkulierbar seien. Man weiß, wie diese Technologien funktionieren. Aber keiner weiß so richtig, was sie mit den eingegebenen Daten machen. Was sie ausspucken, beruht auf Wahrscheinlichkeiten, die man durch Versuch und Irrtum erhöht hat. Selbst die Forscher sind dann erstaunt, wie gut das funktioniert. Das wirft Fragen auf: Wenn wir einer KI die Aufgabe geben, Bewerbungen auszusortieren, über Versicherungsfälle zu entscheiden oder juristische Fragen zu beantworten, dann wollen wir, dass die Entscheidungen nachvollziehbar sind. Jemand muss dafür Verantwortung übernehmen. Das war einer der Gründe, weshalb man GPT-Technologien nicht sonderlich brauchbar fand. Dann hat man plötzlich ChatGPT auf den Markt gebracht, und das hat eine unglaubliche Resonanz und einen neuen »Sommer der KI« ausgelöst.

Umgang mit der Wahrheit

e: Wie könnte diese technische Entwicklung uns als Menschen und unsere Kultur verändern?

JH: Ich sehe hier große Gefahren. Zu Recht haben KI-Forscher gesagt, wir müssten eigentlich zunächst experimentell herausfinden, was diese Technologie mit uns macht und wie wir sie unter Kontrolle bringen können. Denn sie interveniert in einem Bereich, der mit Wahrheit zu tun hat, wie z. B. Texte und Bewerbungen. Das größte Problem dieser Technologien ist, dass sie sich nicht um die Wahrheit sorgen. Wahrheit ist nicht nur eine Frage von wahr und falsch, sondern auch von Sorgfalt und Verantwortung für das, was ich anderen sage. Harry Frankfurt unterscheidet in seinem Buch »Bullshit« zwischen Wahrsprechen, Lügen und Bullshit. Wer wahr spricht, sorgt sich um die Wahrheit. Ein Lügner sorgt sich auch um die Wahrheit – er muss genau aufpassen, dass er sie nicht ausspricht. Der Bullshitter ist achtlos, im Englischen sagt man: He doesn’t care.

Die KI-Maschinen sind achtlos. Sie haben eine hohe Trefferwahrscheinlichkeit, das Wahre zu sagen. Die ist im Durchschnitt vermutlich sogar höher als bei Menschen, weil viele Menschen nicht die Wahrheit sagen, sondern sich um die Wahrheit sorgen, indem sie sie verheimlichen. Aber wenn ein Mensch die Unwahrheit sagt, ist er dafür verantwortlich. Was bedeutet das, wenn ich mit Menschen umgehe und Entscheidungen treffe auf der Grundlage von KI? Und wie verändert das unser Verhalten, wenn Menschen dazu neigen, KIs den Vortritt zu geben, weil sie denken, ›wahrscheinlich ist das wahrer als das, was mir sonst jemand sagt‹? So werden wir sorglos und achtlos im Umgang mit der Wahrheit.

e: Mehr noch als mit Social Media und dem Smartphone droht uns durch die KI unser Verständnis von Wirklichkeit verlorenzugehen. Die simulierte Wirklichkeit wird so wirkmächtig, dass sie von einer angenommenen [erfahrenen?] Wirklichkeit nicht mehr unterscheidbar ist. Und wenn dann eine Technologie auch noch autonom in der Lage ist, das vervielfältigt zu reproduzieren, wird es schwieriger, Wirklichkeit von Nichtwirklichkeit zu unterscheiden. Die Frage ist dann: Von welcher Wirklichkeitssimulation werden wir dann bedingt sein?

JH: Das bringt es sehr schön auf den Punkt. Unsere Fähigkeit, die Wirklichkeit zu erkennen, ist immer situationsgebunden. Das ist eine Einsicht, die die Philosophen schon seit 100 Jahren beschäftigt, seit Husserl eine Krise der Wissenschaften entdeckt hat. Er fragte sich, was geschieht, wenn sich mein Denken abkoppelt vom lebendigen Verstehen, in dem mir ein Licht aufgeht, in dem ich um die Wahrheit ringe und plötzlich etwas einsehe. Einsicht ist eine elementare Dimension menschlicher Geistigkeit, die uns mit der Wirklichkeit verbindet. Deshalb sagten die weisheitlichen Philosophen der Vergangenheit, dass Erkennen mit dem Staunen über die Wirklichkeit beginnt. Wenn ich über etwas staune, fange ich an, etwas zu verstehen: Das, was ich sehe, ist mehr, als ich mir ausdenken kann.

Beim Heiligen ist das in ganz besonderer Weise so. Das ist nicht etwas, das ich mir selbst zusammengebastelt habe, das sich reduzieren lässt auf das, was ich darüber sagen kann oder das sich logisch herleiten lässt. Diese Dimension erschließt uns Wirklichkeit, die nicht in mathematische Formeln oder naturwissenschaftliche Beweise auflösbar ist.

Künstliche Intelligenzen staunen nicht. Sie träumen nicht von etwas, das sie plötzlich entdeckt haben und nicht begreifen können. Das unterscheidet ein Wesen, das sich um die Wahrheit sorgt, von einer Maschine, die sich immer an der Grenze zum Bullshit bewegt, aber trotzdem in der Lage ist, bessere Ergebnisse zu erzielen als ein Durchschnittsmensch. Das eine ist funktional gedacht, das andere hat einen sinnstiftenden Wirklichkeitsbezug.

Eine Welt, die uns angeht

e: Sie haben mit dieser Frage nach der Wahrheit etwas sehr Zentrales angesprochen, das Sie anfänglich auch situationsbedingt genannt haben. Wenn ich Sie hier richtig verstehe, meinen Sie auch, dass wir in unserer Suche nach Wahrheit immer in einer Situation sind, das heißt in einem Dasein in einer Welt, die uns angeht. Das heißt, nur in dieser jeweiligen Situation, in der wir die Welt so wahrnehmen, dass sie uns angeht, stellt sich die Frage nach Wahrheit. Das lässt sich nicht algorithmisch ableiten. Es erfordert die Wahrnehmung, dass es mich angeht. Das können Maschinen bisher zumindest nicht.

JH: Das wäre nur dann möglich, wenn man Maschinen bauen könnte, die körperleibliches Erleben haben. Das ist bisher noch nicht in Sicht. Das Phänomen, mit dem wir hier zu tun haben, besteht darin, dass Menschen auf mechanischem Wege mit der Wirklichkeit in Verbindung treten können. Aber wenn wir uns richtig in die Wirklichkeit involviert fühlen, in sie eintauchen, gehen wir über das Mechanische hinaus. Da ist dann etwas, das uns unmittelbar angeht und uns mit der Wirklichkeit hier und jetzt in Beziehung setzt.

Unmittelbare Präsenz im Hier und Jetzt ist das Fundament menschlicher Intelligenz. Hier kommt eine begriffliche Unterscheidung ins Spiel, die für mich in den letzten Jahren immer wichtiger geworden ist: die Unterscheidung zwischen Intellekt und Ratio, oder griechisch gesprochen, zwischen Nous und Dianoia. Nous ist das Geistige, das mir hier und jetzt aufgeht. Das kann ich nicht festhalten, ich muss es immer wieder suchen, so wie ich das tue, wenn mir etwas ›auf den Lippen liegt‹, an das ich mich nicht erinnern kann. Mechanische Techniken können das unterstützen, ich schreibe vielleicht in mein Notizbuch. Dieses Erinnern nennt man Dianoia, worin sich Nous entfalten kann, um etwas jemand anderem zu erschließen oder es für sich selbst wiederzuentdecken. In der westlichen Tradition ist Dianoia als Ratio und Vernunft übersetzt worden. Es ist das rationale, vergleichende, dialektische Denken, in dem ich mich in geordneten Gegensätzen gezielt auf etwas hinbewege. Aber der Intellectus, die noetische Einsicht, das einsehende Verstehen, lässt sich nicht gezielt kontrollieren oder herbeiführen. Das wird mir geschenkt. Das ist die Gnade der Einsicht, die den Eros im Sinne von Platon als Engagement mit der Sache freisetzt. Ich merke, hier geht es um mehr als das, was ich mir ausgedacht habe. Hier kommt eine Dimension von Wirklichkeit ins Spiel, die meinen subjektiven Horizont übersteigt.

»Das größte Problem dieser Technologien ist, dass sie sich nicht um die Wahrheit sorgen.«

e: Das heißt, die rationale und letztendlich technische oder algorithmische Orientierung unserer westlichen Kultur hat diese Möglichkeiten der künstlichen Intelligenz hervorgerufen. Aber sie zwingt uns jetzt auch, die andere Seite unserer menschlichen Existenz, die ich als existenziellen Bezug benennen möchte, neu zu entdecken. Denn wir sind in einer Situation, wo wir von einer algorithmischen Logik völlig überdeterminiert werden könnten. Deshalb müssen wir herausfinden, was das eigentlich Menschliche ist, das wir dem entgegenhalten wollen.

JH: In den Kognitionswissenschaften spricht man von Extended Intelligence. Das technische Gerät funktioniert hier wie eine Fortsetzung, eine Ausdehnung, wie ein Schwanz der menschlichen Kognition. Aber gegenwärtig laufen wir Gefahr, dass der Schwanz mit dem Hund wedelt und nicht andersrum. Technik als Erweiterung erlaubt uns, unsere Intelligenz zu entfalten, tendiert aber dazu, unser intuitives Verstehen zu dominieren. Die Gründe dafür liegen in einer rationalistischen Reduktion von menschlicher Intelligenz. Das ist auch eine Chance. Wir haben das jetzt so weit vorangetrieben, dass wir mit der Frage konfrontiert sind: Es muss doch noch etwas an menschlicher Intelligenz sein, was sich nicht auf mechanische Rechenoperationen reduzieren lässt?

Extreme Vereinheitlichung

e: Ich würde gern eine Seite der künstlichen Intelligenz ansprechen, die aus meiner Sicht nicht oft beachtet wird. Sprachmodelle wie ChatGPT machen ja eigentlich nichts anderes, als unsere ins Netz eingefütterten Sprachwirklichkeiten zu synthetisieren. In gewisser Weise ist es eine parasitäre Intelligenz, die einerseits ihre eigenen algorithmischen Möglichkeiten einsetzt, aber andererseits eine Synthetisierung unserer kulturellen Wirklichkeit, wie sie im Internet verfügbar ist, abbildet. Das heißt, wir haben es eigentlich nicht nur mit künstlicher Intelligenz zu tun, sondern mit einer Synthetisierung von uns selbst.

JH: Ja, das ist sehr schön zusammengefasst. Man muss einen Punkt vielleicht noch deutlicher betonen. Das sind Intelligenzen, die auf Big Data basieren, sie funktionieren auf Basis unglaublicher Massen von Daten. Und die sortiert man, indem man Prioritätenlisten macht. Das, was am häufigsten vorkommt, wird oben angesiedelt, und das, was am seltensten vorkommt, unten. Damit hat man eine große Wahrscheinlichkeit, das Richtige herauszufinden.

»Die digitalen Technologien zerstören Freiräume, in denen man träumen kann.«

Aber das ist nicht die Art und Weise, wie Menschen denken, wenn sie über die Wirklichkeit staunen und selber denken. Wenn wir über die Wirklichkeit staunen, dann entdecken wir etwas anderes, als wir erwartet hätten. Uns geht etwas auf, das wir so noch nicht gesehen haben. Eine solche Einsicht weicht vom Standard ab. Das ist das, was uns ausmacht, was große Geister inspiriert und Neues erschließt.

Deshalb können KIs nicht kreativ sein. Sie sind zwar so gebaut, dass Neues entstehen kann. Ich kann Cezanne kombinieren mit Picasso und vielleicht noch ein bisschen Rubens. Dabei kommt etwas Neues heraus. Aber das sind immer nur Kombinationen nach Wahrscheinlichkeiten. Diese Technologien extrahieren Muster und konvergieren dann in Richtung der entscheidenden Eigenschaften. So wie ich bei Amazon schließlich in ein bestimmtes Leserprofil einsortiert werde, woraus sich eine ­hohe Wahrscheinlichkeit ergibt, dass mich dieses und jenes Buch interessiert. Ganz ähnlich funktionieren auch Partnerschaftsseiten. Aber wenn wir uns verlieben, finden wir ja oft nicht das, was wir nach unserem Kriterienkatalog erwartet und gesucht haben. Das Überraschende hat diesen einzigartigen Zug, der mich dazu bewegt, mein ganzes Leben zu überdenken, unter Einschluss der Erwartungen, die ich vorher hatte. Das ist die Dimension von Kreativität, die menschliche Geistigkeit ausmacht und die aus technischen Gründen bei KIs nicht vorkommen kann.

e: Diese Technologie ist selber nicht fähig zu staunen, aber könnte es nicht sein, dass wir mithilfe dieses großen elektronischen Spiegels lernen können, in einer neuen Form zu staunen, die uns vorher nicht möglich war?

JH: Die gegenwärtigen KIs privilegieren immer die große Masse und eine bestimmte, gegenwärtig vor allem amerikanische Lebensform. Es gab Experimente mit Menschen in Australien, die ChatGPT über Waffengesetze befragt haben, und die Antwort war, dass man Waffen nicht verbieten sollte. Das stehe ja in der US-amerikanischen Verfassung. So wird die amerikanische Kultur nach Australien exportiert, weil die meisten Muster aus den USA und der amerikanischen Sprache stammen.

Ich habe einen KI-Forscher kennengelernt, der versucht hat, eine ähnliche Technologie wie ChatGPT zu entwickeln, aber auf der Basis der Maori-Sprache der indigenen Menschen in Neuseeland. Da gibt es wenige Muster, weil es nur ganz wenige Texte gibt und man auch andere Medien benutzen muss, z. B. bezogen auf gesprochene Sprache. Eine solche Technologie hat aber wenig Chancen, entwickelt zu werden, weil der Markt nach dem Prinzip »The Winner takes it all« funktioniert. Es gibt große Monopolkonzerne, die den Markt bestimmen. Hier führt die wirtschaftliche Entwicklung des Monopolismus zu einer extremen kulturellen Vereinheitlichung oder »Vereintopfung«. Das ist aber nicht notwendigerweise der Fall. Man könnte auch eine Technologie bauen, die eine größere Pluralität fördert, auf spezifischeren Samples basiert und das Besondere betont.

Eine Spiritualität des Alltags

e: Über diese allumfassende Verbundenheit wird ja auch in vielen spirituellen Traditionen gesprochen. Welche Rolle spielt diese technologische Transformation für unsere Spiritualität?

JH: Ich habe mich vor Kurzem an das Buch »Die Poetik des Raumes« von Gaston Bachelard erinnert. Darin beschreibt er die Erfahrung, dass man auf den Speicher oder in den Keller geht, ohne etwas Bestimmtes zu suchen, und plötzlich etwas entdeckt, das Erinnerungen wachruft. Diese offene Aufmerksamkeit ist ­eine kontemplative Haltung. Man träumt, aber mit wachem Bewusstsein. Das sind die Augenblicke, in denen uns Einsichten aufgehen, wo sich uns Dinge erschließen, die uns wichtig sind und die wir schon vergessen hatten. Es ist ein Grundzug menschlicher Intelligenz, dass es diese Leerräume gibt, in denen unser Denken und unser Geist zur Ruhe kommen und aus denen heraus dann plötzlich das lebendige Verstehen erwacht.

»Wenn wir uns richtig in die Wirklichkeit involviert fühlen, gehen wir über das Mechanische hinaus.«

Die digitalen Technologien, die wir gegenwärtig bauen, machen das Gegenteil. Sie zerstören alle Freiräume, in denen man träumen kann. Deshalb wird es notwendig werden, eine Spiritualität des Alltags zu kultivieren und spirituelle Räume wie Bachelards Speicher zurückzugewinnen, die wir früher gar nicht als spirituell wahrgenommen hätten. Die Fähigkeit, hier und jetzt etwas Wesentliches zu entdecken, das eine neue Perspektive auf die Welt erschließt, ist menschliche Intelligenz. Die digitale Transformation zwingt uns dazu, das bewusst zu kultivieren. Wir müssen wesentlich achtsamer werden in Bezug auf das, was uns als intelligente Wesen von Technologien unterscheidet, die unsere Intelligenz erweitern oder unterstützen, aber nicht ersetzen können.

Author:
Dr. Thomas Steininger
Share this article: