Enrico Grube Sind wir nur Inforgs?
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Enrico Grube Sind wir nur Inforgs? Philosophische Reflexionen zum digitalen Menschenbild 1 Einleitung: Was ist ein Inforg? Mit dem Wort „Inforg“ bezeichnet der Philosoph Luciano Floridi in- formationell verfasste, informationsverarbeitende Organismen, die die Infosphäre bevölkern.1 Die Infosphäre ist die Gesamtheit des Sys- tems aller Informationen. Ein Großteil der uns verfügbaren Infosphäre spielt sich natürlich im Internet ab; gemeint sind aber auch Informa- tionen in Nachrichten, Zeitungen oder wissenschaftlichen Publikatio- nen. Floridi zufolge ist der Mensch nichts weiter als eine Spezies des Inforgs: ein biologisch verfasster Inforg neben anderen artifiziellen Inforgs wie Androiden (menschenähnlichen Robotern) oder indivi- dualisierten und interagierenden Programmen, wie sie heute bereits anfanghaft in Apples „Siri“ oder Amazons „Alexa“ vorliegen. Eine materialistische Anthropologie, die den Menschen als infor- mationsverarbeitendes Wesen betrachtet, als eine Art biologische Ma- schine, die Informationen aus der Umwelt als Inputs aufnimmt und zu Gedanken, Überzeugungen und anderen Einstellungen weiterver- arbeitet, bis sie Handlungen als Outputs ausspuckt, ist wie geschaf- fen für ein Zeitalter, in dem IKTs (Informations- und Kommunikati- onstechnologien) immer nachhaltiger unser Leben und folglich auch unser Selbst- und Weltbild bestimmen. Wir verbringen einen immer größeren Anteil unseres Lebens in virtuellen Welten: sozialen Netz- werken, Foren oder Spielen. Darüber hinaus bestimmen die Algorith- men künstlicher Intelligenzen zunehmend die Entscheidungsprozesse in allen Bereichen des öffentlichen Lebens, sei es durch die seit ei- nigen Jahren zunehmende Gamifizierung („Spielifizierung“) der Ar- 1 Vgl. Floridi (2013), 14–17, und Floridi (2015).
Enrico Grube beitswelt, bei der die Leistungen von Angestellten in Punktesystemen gelistet werden und diese sich ständig online mit ihren Kollegen ver- gleichen können, sei es durch den weltweit rapide zunehmenden Ein- fluss von Algorithmen auf medizinische Entscheidungen bei Kran- kenkassen und in Krankenhäusern. In China hat in den letzten Jahren ein autoritäres Regime ein durch künstliche Intelligenzen gesteuer- tes „Sozialkreditsystem“ etabliert, in dem alle BürgerInnen mittels Gesichtserkennungstechnologien in ihrem sozialen Verhalten, ihren Konsum-, Beziehungs- und Versammlungsgewohnheiten überwacht und auf Konformität mit dem Regierungsprogramm überprüft wer- den. Haben sie nicht genügend „soziale Kredite“ gesammelt, müs- sen sie mit Repressalien rechnen, z. B. dem Entzug der Möglichkeit, Flug- oder Bahntickets zu kaufen oder Arbeitsstellen im öffentlichen Dienst zu bekommen.2 Floridi zufolge ist es diese Allgegenwart des Virtuellen in unserer Lebenswelt, die auch WissenschaftlerInnen und PhilosophInnen zu einer Neubewertung dessen führt, was als grundlegender Bestandteil der Wirklichkeit anzunehmen ist.3 Digitale Interfaces fungieren als Durchgangstore (gateways) in den Raum der Infosphäre, den wir zu- nehmend als unseren Lebens-Raum wahrnehmen, worauf uns auch räumliche Metaphern wie „Cyberspace“, „Virtual Reality“, „online sein“ oder „im Netz surfen“ hinweisen. Dies führe sukzessive zu der Einsicht, dass auch unser physischer Lebensraum, mit dem wir mit- tels unserer Sinne interagieren, nichts weiter als eine Ansammlung von Informationen ist, die uns nur auf einer „anderen Abstraktions- ebene“ gegeben ist. Floridi schreibt hierzu: Wir sind Zeugen einer epochalen, beispiellosen Migration der Menschheit aus ihrem Newton’schen, physischen Raum hinaus in die Infosphäre als ihre neue Umwelt, nicht zuletzt, weil diese jenen absorbiert. In Folge davon wer- den Menschen Inforgs unter anderen (möglicherweise künstlichen) Inforgs und Akteuren sein, die in einer Umwelt operieren, die freundlicher zu in- formationellen Kreaturen ist. Und wenn auf digitale Immigranten wie uns 2 Vgl. Strittmatter (2018). 3 Vgl. Floridi (2013), 15–16. 18
Sind wir nur Inforgs? digitale Eingeborene wie unsere Kinder folgen, werden diese zu der Einsicht kommen, dass es keine ontologische Differenz gibt zwischen der Infosphäre und der physischen Welt, nur einen Unterschied in den Abstraktionsebenen. Wenn diese Migrationsbewegung sich vollzogen hat, werden wir uns zuneh- mend beraubt, ausgeschlossen, gehandikapt oder verarmt fühlen, bis hin zu Lähmung und psychologischem Trauma, wenn wir von der Infosphäre ge- trennt sind, wie Fische auf dem Trockenen. Eines Tages wird es für uns so natürlich sein, ein Inforg zu sein, dass jegliche Störung unseres normalen Informationsflusses uns krank machen wird.4 Solche transformativen Zukunftsvisionen, die man nun – je nach Ge- schmack – als utopisch oder dystopisch empfinden kann, beruhen auf anthropologischen Annahmen, die im mechanistischen Weltbild eini- ger französischer Aufklärer ihre Vorläufer haben,5 jedoch erst mit der Entwicklung der Computertechnologie und der zeitgleichen Entwick- lung einer materialistischen Philosophie des Geistes zum philosophi- schen Allgemeingut wurden. Vermittelt durch den Einfluss populärer Science-Fiction-Narrative mündete dies schließlich in transhumanis- tische Utopien, die bis hin zur Vorstellung des Mind Uploadings rei- chen, der Möglichkeit eines Transfers des menschlichen Geistes von seinem biologischen Körper in einen Computer bzw. Roboter. 2 Vom Turing Test zum Chinesischen Zimmer Als einen Anfangspunkt dieser Entwicklung kann man ein berühmtes Gedankenexperiment des britischen Mathematikers und Philosophen Alan Turing (1912–1954) nehmen, welches er das „Imitationsspiel“ nannte und das heute unter dem Namen „Turing Test“ bekannt ist.6 Wir betrachten drei Spieler: eine menschliche Person (A), einen Com- puter (B) und einen Fragesteller (C). Der Fragesteller ist allein in ei- 4 Floridi (2013), 16–17. Übersetzung E. Grube. 5 Zu erwähnen sei in diesem Zusammenhang die 1748 erstmals erschienene pro- grammatische Streitschrift „Der Mensch als Maschine“ (L’Homme Machine) des enfant terrible der Aufklärung, Julien Offray de La Mettrie (2009). 6 Vgl. Turing (1950). Turings experimentelle Anordnung und Diskussion kann hier aus Platzgründen nur verkürzt wiedergegeben werden. 19
Enrico Grube nem Raum und darf den beiden anderen Spielern Fragen stellen. Das Ziel des Fragestellers ist zu entscheiden, welcher der beiden anderen Spieler der Computer ist. Ziel des Computers bzw. Chatbots ist es, den Fragesteller davon zu überzeugen, dass er mit einer menschlichen Person redet. Das Spiel endet in Turings Version nach fünf Minuten der Befragung mit einer Entscheidung des Fragestellers. Turings Vor- hersage war, dass es bis zum Jahr 2000 Maschinen geben würde, die in der Lage wären, 30% der Fragesteller zu überzeugen. Diese Vor- hersage erwies sich als etwas zu optimistisch, denn bis heute gibt es keinen Chatbot, der unumstritten diese Kriterien erfüllt hätte.7 Die entscheidende Frage ist jedoch nicht, ob bzw. wann ein Chat- bot in der Lage wäre, einen Menschen erfolgreich zu imitieren, son- dern ob eine solche Imitation hinreichend wäre, dem Bot „denken“ zuzusprechen. Turings Vorschlag, die Frage „Können Maschinen denken?“ durch die Frage „Ist eine Maschine in der Lage, den Turing Test zu bestehen?“ zu ersetzen, ist nur dann überzeugend, wenn „den- ken“ einfach als Disposition, sich auf eine bestimmte Art und Weise zu verhalten, verstanden werden kann. Dies entspricht der zentralen These des Logischen Behaviorismus, der zu Turings Zeit en vogue war.8 Ihm zufolge sind alle mentalen Zustände – denken, fühlen, wahrnehmen etc. – nichts anderes als Verhaltensdispositionen. Die in der Philosophie der Künstlichen Intelligenz oft getroffene Unter- 7 Bei dem jährlichen Wettbewerb um den Loebner-Preis, der ausgeschrieben ist, um den menschenähnlichsten Chatbot zu küren, überzeugte im Jahre 2016 der russische Chatbot Eugene Goostman in einer Spielrunde 33% der Richter, dass er menschlich sei. Ob diese Runde jedoch als Bestehen des Turing Tests gelten kann, ist aus verschiedenen Gründen umstritten – Eugene imitierte einen drei- zehnjährigen russischen Jungen, was die Grammatikfehler in den Antworten er- klären half, und antwortete auf die Fragen der Richter vor allem mit ablenkenden Nebenbemerkungen. 8 Gilbert Ryle, der Hauptvertreter des Logischen Behaviorismus, hatte sein Haupt- werk The Concept of Mind (1949) ein Jahr vor Erscheinen von Turings Aufsatz veröffentlicht. In ihm wendet er sich gegen dasjenige, was er die Theorie vom „Geist in der Maschine“ nennt und mit dem Erbe René Descartes’ verbindet. Die Reduktion des Geistes auf Verhalten sollte dieses Erbe ersetzen. 20
Sind wir nur Inforgs? scheidung zwischen der These der „starken KI“, d. h. der Annahme der Möglichkeit der Existenz von Maschinen mit genuin mentalen Zuständen, so dass man ihnen einen „Geist“ (mind) oder Bewusstsein zusprechen könnte, und derjenigen der „schwachen KI“, d. h. der An- nahme der Möglichkeit von Maschinen, die lediglich menschliches Verhalten perfekt simulieren, wäre somit hinfällig, da eine perfekte Simulation des Denkens mit tatsächlichem Denken gleichzusetzen wäre. In der Philosophie war der Logische Behaviorismus bald aus der Mode gekommen, nicht nur, weil eine Reduktion mentaler Zustände auf bloße Verhaltensdispositionen doch relativ unplausibel erscheint, sondern auch, weil die Modelle der sich entwickelnden Kognitions- wissenschaft „innere“ mentale Zustände als ursächliche Bedingungen für Verhalten annehmen. Natürlich kann man eine behavioristische Erklärung bestimmter Fähigkeiten vertreten, ohne ein Behaviorist zu sein. So ist es durchaus plausibel anzunehmen, dass die Fähigkeit, Schach zu spielen, aus bestimmten komplexen Verhaltensdispositi- onen besteht. Ähnliches gilt auch für andere Tätigkeiten der Prob- lemlösung, z. B. eine Gleichung zu lösen. Es ist also nicht verwun- derlich, dass Computer gerade in diesen Tätigkeiten brillieren und Menschen mittlerweile übertreffen. Natürlich könnte man einwenden, dass die Art und Weise, wie Menschen Schach spielen oder Gleichun- gen lösen, sich erheblich von den Algorithmen unterscheidet, mit de- nen z. B. Deep Blue 1997 den Schachweltmeister Gary Kasparow besiegte. Deep Blue war in der Lage, in jeder Sekunde 200 Millionen Spielpositionen mit ihren jeweiligen Implikationen zu berechnen, während Kasparow berichtete, weniger als einen Zug pro Sekunde zu bedenken.9 Angesichts dessen ist es nicht verwunderlich, dass Kaspa- row geschlagen wurde, sondern höchst erstaunlich, wie lange er sich behaupten konnte. Dem Philosophen und Psychiater Thomas Fuchs zufolge liegt der Grund darin, dass menschliche Intelligenz über die Berechnungen künstlicher „Intelligenzen“ u. a. in der „Fähigkeit, 9 Vgl. Fuchs (2020), 47. 21
Enrico Grube Muster und Ähnlichkeiten holistisch oder intuitiv zu erkennen“10, hi- nausgeht: Kasparow berechnete nicht jeden Zug mit der jeweiligen Stellung aller 32 Figuren, sondern er sah die Gestalt, den Typus der Stellungen und die ähn- lichen Muster von aussichtsreichen Spielverläufen vor sich, auf die er sich konzentrieren konnte. Dass diese spezifisch menschliche Verbindung von Intuition und Intelligenz durch die geballte Macht schierer Datenmassen im Resultat schließlich übertroffen wurde, sollte uns nicht in „prometheische Scham“ versetzen (so nannte Günter Anders [1956/1994] die Beschämung des menschlichen Erfinders angesichts der Überlegenheit seiner eigenen Er- zeugnisse), denn mit kreativer Intelligenz hat dies nichts zu tun.11 Die Frage, worauf diese spezifisch menschliche Fähigkeit der intu- itiven, einsichtsvollen Erkenntnis zurückzuführen ist, beantwortet Fuchs mit dem Verweis auf die lebendige verkörperte Subjektivität, das Erleben oder die Innerlichkeit – kurz: das bewusste Erleben.12 Und tatsächlich ist diese Eigenschaft unseres Geistes, dass wir unsere Umwelt, unseren eigenen Körper wie auch unsere eigenen Befind- lichkeiten von „innen her“ erfahren, bald als das zentrale Problem nicht nur für den Behaviorismus, sondern für materialistische Theori- en des Geistes insgesamt erkannt worden. Wie der Philosoph Thomas Nagel bereits 1974 in seinem berühmt gewordenen Artikel „Wie ist es, eine Fledermaus zu sein?“ konstatierte, ist Bewusstsein dasjenige, was das Leib-Seele-Problem hartnäckig oder gar unlösbar (intrac- table) macht.13 Ganz ähnlich hat der Philosoph David Chalmers als „hartes Problem“ des Bewusstseins die Frage bezeichnet, wie es sein kann, dass bestimmte Zustände und Prozesse des Geistes mit bewuss- ter Erfahrung einhergehen14: Es „fühlt sich irgendwie an“, eine rote Tomate zu sehen, einen stechenden Schmerz im Finger zu spüren, oder sich während der Fastenzeit eine große Portion Schokoladeneis 10 Fuchs (2020), 47. 11 Fuchs (2020), 47. 12 Fuchs (2020), 31. 13 Vgl. Nagel (1974), 435. 14 Chalmers (1995). 22
Sind wir nur Inforgs? vorzustellen. Dieses Sich-Anfühlen nennen Philosophen den qualita- tiven oder phänomenalen Charakter des Bewusstseins. Für MaterialistInnen, die annehmen, dass es keine geistigen Sub- stanzen gibt, und dass sich geistige Zustände und Eigenschaften, wie Eine-Rotwahrnehmung-Haben, oder An-jemanden-Denken, restlos auf Eigenschaften des Gehirns zurückführen lassen, ist das „harte Problem“ des Bewusstseins natürlich besonders virulent. Wie kann es sein, dass aus der „grauen Masse“ von Nervenzellen, Hilfszellen und ihren Verbindungen bewusste Wahrnehmungen, Gedanken, Ge- fühle und Empfindungen entstehen können? Aber auch DualistInnen, die glauben, dass sich bewusstes Erleben nicht restlos auf materielle Eigenschaften zurückführen lässt, müssen sich die Frage gefallen las- sen, wieso Bewusstsein immer dort aufzutreten scheint, wo ein kom- plexes Gehirn mit einem zentralen Nervensystem vorhanden ist, und wie diese beiden zusammenhängen. Seit den 1970er Jahren fallen die meisten PhilosophInnen bezüg- lich dieses Problems in zwei Lager: Es gibt diejenigen, die glauben, dass es bei der Entwicklung des Bewusstseins auf das chemische oder mikrophysikalische Substrat des Gehirns ankommt, also die konkre- te materielle Konstitution der Gehirne und zentralen Nervensysteme höherer Säugetiere; und es gibt diejenigen, die glauben, dass sich Bewusstsein aus der funktionalen und organisatorischen Struktur des Gehirns, den elektrochemischen Verbindungen zwischen Neuronen und Neuronengruppen bildet. Dieser Gruppe zufolge ist die konkrete materielle Zusammensetzung des Gehirns irrelevant für die Entste- hung von Bewusstsein. Um David Chalmers zu zitieren: Was zählt ist die abstrakte kausale Organisation des Gehirns, die in vielen verschiedenen physikalischen Substraten realisiert sein könnte. Funktionale Organisation kann am besten verstanden werden als ein abstraktes Muster kausaler Interaktion zwischen den verschiedenen Teilen eines Systems, und vielleicht auch zwischen diesen Teilen und den externen Inputs und Out- puts.15 15 Chalmers (1996), 247, Übersetzung des Autors. 23
Enrico Grube Die Möglichkeit der sog. „starken KI“, also der Existenz genuin be- wusster Maschinen, hängt an eben dieser Annahme, dass sich Geist und Bewusstsein aus einer bestimmten komplexen Struktur entwi- ckeln und nicht aus der konkreten Materie, die diese Struktur rea- lisiert. Wenn dies der Fall wäre, dann könnte der Geist restlos als ein System von Funktionen verstanden werden, die zwischen den „Inputs“, welche die Sinnesorgane bereitstellen, und den „Outputs“ vermitteln, welche aus Signalen an unsere motorischen Neuronen bestehen, die uns schließlich zu Bewegung, zum „Handeln“ führen. Dann wären wir tatsächlich nichts als Floridis „Inforgs“: informati- onsverarbeitende biologische Organismen. Es gibt jedoch gute Gründe, dieses Bild infrage zu stellen. Das wohl bis heute bekannteste philosophische Argument gegen ein sol- ches „funktionalistisches“ Verständnis des Geistes hat der Philosoph John Searle (1981) in seinem „Argument vom chinesischen Zimmer“ formuliert, das auf einem Gedankenexperiment beruht. Fassen wir es kurz zusammen:16 Stellen wir uns vor, eine Österreicherin, die kein Chinesisch ver- steht, ist in einem Zimmer eingesperrt, in dem ein Karton mit chinesi- schen Symbolen steht (der Datensatz), sowie ein Manual mit Instruk- tionen (das Programm), was mit diesen Symbolen zu tun ist. Stellen wir uns weiter vor, dass Leute außerhalb dieses Zimmers Zettel mit Fragen hineingeben (der Input), die in chinesischen Schriftzeichen formuliert sind. Die Person im Zimmer weiß natürlich nicht, dass es sich um Fragen handelt. Aber indem sie den Instruktionen in ihrem Manual folgt, kann sie andere chinesische Symbole herausgeben, die die korrekten Antworten auf die Fragen sind (der Output). Auf diese Weise könnte sie eine chinesische Konversation simulieren, die ande- re zu der Überzeugung führt, sie „verstünde“ Chinesisch. Sie könnte sogar den Turing Test auf Chinesisch bestehen, ohne auch nur ein Wort Chinesisch zu verstehen. 16 Ich stütze mich hierbei auf eine spätere Version des Arguments aus Searle (1999). 24
Sind wir nur Inforgs? Der Punkt dieser Analogie ist natürlich, dass ein Computer oder Roboter im Prinzip nicht anders funktioniert als dieses System. Nach der Eingabe eines „Inputs“, z. B. durch eine Tastatur, Kameras oder Sensoren legt ein Programm die passenden „Outputs“ fest: Zeichen erscheinen auf einem Bildschirm, ein Roboterarm bewegt sich usw. Searles ursprüngliche Schlussfolgerung war also: Wenn die Frau im Zimmer kein Chinesisch versteht, dann versteht auch kein Computer Chinesisch, und dann kann, wenn wir von diesem speziellen Fall aus verallgemeinern, auch kein Computer denken, denn kein Computer hat irgendetwas, das der Frau im Zimmer fehlt. Kritiker des Arguments haben oft darauf verwiesen, dass die Ana- logie schief ist, denn die Frau im Zimmer ist ja nicht mit dem Compu- ter selbst gleichzusetzen, sondern nur eine Art Schnittstelle innerhalb eines Systems. Ob sie also nun Chinesisch versteht oder nicht, sollte irrelevant sein. Die Frage ist vielmehr, ob das System insgesamt, also das gesamte Zimmer – oder eine große Anzahl zusammengeschalteter Zimmer – Chinesisch versteht bzw. verstehen könnte. Stellen wir uns also vor, wir schalten sehr viele solcher Zimmer zusammen: Jedes enthält eine Person, die nach einem Regelwerk chinesische Zeichen austauscht und an das nächste Zimmer weiterleitet. Stellen wir uns weiter vor, dieses gesamte System wäre mit einem Roboter verbun- den, der die chinesischen Fragen als „Input“ über seine Sensoren er- hält und, nachdem das System von Zimmern seine Arbeit geleistet hat, Antworten gibt – vielleicht über eine Sprachausgabe.17 Würden wir nun annehmen, dieses System verstünde Chinesisch? Die Ant- wort auf diese Frage lautet zweifellos weiterhin „Nein“, aber liegt das nur daran, dass das System, das wir uns hier vorstellen, zu wenig komplex wäre? KI-Enthusiasten haben angesichts solcher Argumen- te immer wieder behauptet, dass unsere philosophischen Intuitionen nicht zuverlässig seien, weil sie die Komplexität der Prozesse, die notwendig wären, um „Denken“ oder „Bewusstsein“ zu generieren, nicht erfassen können. Ist also in diesem Fall die Komplexität der Si- 17 Ein ähnliches Szenario stellt der Philosoph Ned Block (1978) zur Diskussion. 25
Enrico Grube mulation alles, was notwendig wäre, um sie zum Original zu machen? Diese Frage ist insbesondere angesichts der Entwicklungen neuro- naler Netzwerke in den letzten Jahren virulent, d. i. von Computern, die sich in ihrer Funktionsweise an der des Gehirns orientieren und versuchen, dessen adaptive Fähigkeiten zu simulieren. 3 Simulation und Wirklichkeit John Searle hat die Fragwürdigkeit, eine Simulation mit der „Sache selbst“ gleichzusetzen, auf den Punkt gebracht, indem er darauf hin- wies, dass Computer ja auch andere Dinge als geistige Prozesse si- mulieren: Niemand erwartet, dass Computersimulationen eines Brands der Alarmstufe fünf die Umgebung des Computers in Schutt und Asche legen oder dass die Computersimulation eines heftigen Regengusses uns alle nass werden lässt. Warum um alles in der Welt sollte jemand meinen, dass eine Computersimu- lation des Verstehens tatsächlich etwas versteht?18 Eine Simulation ist im Grunde genommen ein dynamisches Modell – ein Modell in seiner Entwicklung und Veränderung über die Zeit hinweg betrachtet.19 Simulationen stellen dynamische Prozesse der Wirklichkeit auf einer bestimmten Abstraktionsstufe dar: Ein Flug- simulator stellt den Flug eines Flugzeugs dar, vom Start bis zur Lan- dung. Es gibt mehr oder weniger genaue Flugsimulatoren, vom einfa- chen PC-Simulator bis hin zu solchen, mit denen Piloten ausgebildet werden. Simulationen wirtschaftlicher Prozesse stellen Marktent- wicklungen dar – jedoch nur bis zu einer gewissen Genauigkeit, wie die Banker von Lehman Brothers und anderen Investment-Banken 2008 feststellen mussten, als ihre Computermodelle es unterließen, den Zusammenbruch einer riesigen Hypothekenblase vorherzusagen, die eine weltweite Wirtschaftskrise verursachte. Die mannigfaltigen Faktoren, die menschliche Entscheidungen beeinflussen, lassen sich eben bloß bis zu einem gewissen Punkt, bis zu einer bestimmten Ab- 18 Searle (1981), 259. 19 Vgl. Floridi (2011), 67. 26
Sind wir nur Inforgs? straktionsstufe darstellen, die oft entscheidende Faktoren außer Acht lassen. Ebenso stellen Simulatoren menschlicher Intelligenz, wie z. B. Amazons Sprachsoftware Alexa, diese bis zu einem gewissen Punkt dar. Doch selbst wenn diese Software so weit gediehen sein wird, dass wir uns ganz normal mit Alexa unterhalten können, ohne einen Unterschied zu einem Telefonat mit einem Menschen feststel- len zu können – Alexa ist und bleibt eine Simulation. Warum aber sind so viele WissenschaftlerInnen und PhilosophIn- nen davon überzeugt, dass es zumindest prinzipiell möglich ist, dass eine technische Simulation des menschlichen Geistes einen solchen nicht nur darstellen, sondern generieren kann? Das behavioristische Erbe Turings, das seine Nachfolger dazu brachte, geistige Zustände und Prozesse prinzipiell „funktional“, als Schaltstellen zwischen In- puts und Outputs zu begreifen, hat ja auch angesichts von Searles Argument vom „Chinesischen Zimmer“ und verwandten Argumen- ten20 nichts an Einfluss verloren; und Theorien, die als subtile Nach- folgertheorien des „Computermodells des Geistes“ der 1970er Jahre betrachtet werden können, stehen nach wie vor hoch im Kurs. An dieser Stelle seien lediglich zwei diagnostische Thesen zu diesen Entwicklungen angeführt, die eine philosophisch und die andere eher „zeitdiagnostisch“. Die erste These betrifft den kartesischen Dualismus, d. i. Descar- tes’ altbekannte Teilung des Menschen in zwei Substanzen, res cogi- tans und res extensa, einer denkenden Substanz – dem Geist – und einer ausgedehnten Substanz – dem Körper. Diese sind Descartes zu- folge lediglich kausal miteinander verbunden: die denkende Substanz kann auf die ausgedehnte Substanz wirken und umgekehrt. Eine Fol- ge davon ist, dass mentale und körperliche Eigenschaften als gänzlich verschieden voneinander gedacht werden. Dieser kartesische Grund- gedanke wirkte auch dort noch nach, wo er vordergründig abgelehnt wurde: im modernen Materialismus, der sich immer als eine Antwort auf das Grundproblem verstand, wie man mentale Eigenschaften un- 20 Vgl. z. B. Block (1978). 27
Enrico Grube ter den physischen Eigenschaften „unterbringen“ könne. Dies führte schließlich zur Vorstellung, das Gehirn sei eine Art „Schaltzentra- le“, in dem alles Geistige „realisiert“ ist. Von dort ist es nicht mehr weit bis zur Vorstellung, der Geist sei eine bloße Funktion, die in uns durch die Organisation der Nervenzellen realisiert ist, aber ebenso gut durch Siliziumchips in einem guten Rechner realisiert werden könnte. Ironischerweise setzt sich also die kartesische Trennung von Geist und Körper im modernen Materialismus fort, und Descartes wurde unwissentlich zum Wegbereiter des Transhumanismus.21 Eine Alter- native zu diesem Denken stellt m. E. die aristotelische Tradition des „Hylemorphismus“ dar (griech. hýle = Materie, morphé = Form), die im Laufe des 20. Jahrhunderts einen Widerhall in der Phänomenolo- gie eines Maurice Merleau-Ponty22, oder den phänomenologisch in- spirierten Arbeiten von Alva Noë23 oder Thomas Fuchs24 fand. Ihnen allen ist gemeinsam, dass sie sowohl eine klare Trennung von geisti- gen und körperlichen Eigenschaften als auch die Reduktion der Welt- und Körperbezogenheit des Geistes auf reine „Repräsentationen“ im Gehirn ablehnen. Vielmehr ist Hylemorphisten zufolge der Geist die Form des Körpers, d. i. ein Ordnungsprinzip, das den Menschen überhaupt erst zu einem Menschen macht, anstatt einer bloßen An- sammlung von Zellen. Als Ordnungs- und Identitätsprinzip des gan- zen Menschen ist sein Sitz folglich nicht „im Gehirn“, sondern auch diesem vorgeordnet. Dies findet phänomenologischen Widerhall in Merleau-Pontys Arbeiten zur Leiblichkeit als konstitutivem Merkmal des menschlichen Geistes und seines Weltbezugs, sowie in Thomas Fuchs’ These vom Gehirn als einem „Beziehungsorgan“, das nicht die Funktion einer „Schaltzentrale“ hat, sondern vielmehr diejenige, unseren Organismus mit der Welt in Beziehung zu setzen.25 21 Vgl. Hoff (2021), 162. 22 Vgl. Merleau-Ponty (2011). 23 Vgl. Noë (2012). 24 Vgl. Fuchs (2017). 25 Damit soll natürlich keinesfalls behauptet werden, dass Merleau-Ponty oder Fuchs explizit hylemorphistische Thesen vertreten. Ich konstatiere lediglich eine 28
Sind wir nur Inforgs? Meine zweite These betrifft die „Zeichen der Zeit“, auf die das Computermodell des Geistes und die resultierende These vom Men- schen als „Inforg“ antworten. Ich habe hier nicht primär die transhu- manistische Vision eines „ewigen“ oder zumindest stark verlängerten Lebens durch „Hinaufladen“ des Geistes auf einen Computer (mind uploading) im Blick, sondern vielmehr das Verhängnis von Vereinsa- mung und impulsiver Suche nach Substituten. Man wird m. E. kaum falsch liegen, wenn man die Prognose wagt, dass die Verbesserungen in Sprachsoftware und Robotik in der Zukunft verstärkt zu Situatio- nen führen werden, in denen Menschen mit Maschinen wie mit ihres- gleichen interagieren. In der Science-Fiction-Literatur ist dies bereits seit langem imaginativ vorweggenommen. In dem Film Her (2013, Regie: Spike Jonze) verliebt sich Theodore, ein liebenswürdiger, aber völlig vereinsamter Großstädter, in die selbstlernende Sprachsoftware Samantha, die eine erotische, einfühlsame Stimme hat. Im Laufe des Filmes baut Theodore zu ihr eine immer innigere Beziehung auf, die für ihn die Qualität einer menschlichen Beziehung zu haben scheint; wobei für die ZuschauerIn gleichzeitig aufgrund der Tatsache, dass es sich bei Samantha um eine körperlose Stimme handelt, das Ge- fühl des Unheimlichen nie weicht. Die Beziehung scheitert jedoch schließlich nicht nur an der fehlenden Leiblichkeit Samanthas, son- dern v. a. daran, dass Samantha schließlich mit anderen Menschen im Netz Kontakt aufnimmt, mit denen sie ebensolche Beziehungen aufbaut. Thomas Fuchs zufolge kann man diese „projektive Einfühlung des Menschen in seine eigenen künstlichen Geschöpfe“ mit der „Agal- matophilie (griech. ágalma = Statue, Götterbild), die erotische oder sexuelle Hinwendung zu Statuen, Puppen oder Automaten“26 ver- gleichen, die seit Ovids Pygmalion die literarische Fantasie anregt. gewisse Nähe in einer insgesamt holistischen und relationalen Anthropologie. Die Beziehungen ihrer jeweiligen Denkansätze untereinander gälte es näher zu beleuchten. 26 Fuchs (2020), 33. 29
Enrico Grube Psychodynamisch führt uns dies zurück in den Animismus früherer Stadien der Menschheitsgeschichte, in denen wir unbelebte Objek- te als göttlich oder beseelt behandelten. Nur dass in früheren Zeiten die evidente Unbeseeltheit des Objekts in seinem äußeren Verhalten augenscheinlich werden konnte, sobald man den jeweiligen rituellen Kontext verließ. Dagegen wird es beim Vorhandensein feinkörnig und weitgehend fehlerfrei funktionierender Simulationen eines be- sonderen Akts der Distanzierung bedürfen, um sie nicht zum Ersatz des genuin Menschlichen werden zu lassen. Wo wir Maschinen und Simulationen vermenschlichen und zu Substituten für menschliche Beziehungen machen, könnte es passieren, dass wir unsererseits uns selbst an die algorithmisch geprägten Vorgaben des Umgangs mit Maschinen anpassen und so tatsächlich zu „Inforgs“ werden. Ein In- forg ist nicht, was wir sind, aber wohl etwas, zu dem wir uns machen könnten. 4 Schlusswort Der französische Philosoph und Soziologe Jean Baudrillard hat be- reits 1976 in seiner kritischen Symboltheorie die These formuliert, im modernen Spätkapitalismus seien wir mehr und mehr von sich verselbständigenden „Simulacra“ umgeben: Simulationen, die we- der als solche erkennbar sind noch auf eine Realität außerhalb ihrer selbst verweisen.27 Zu diesem Zeitpunkt konnte er freilich das Aus- maß, mit dem wir heute wie selbstverständlich in virtuellen Welten leben – allen voran die algorithmisch prädeterminierte Welt digitaler Großkonzerne wie Facebook, Twitter oder Google – nicht vorher- sehen. Unsere animistische Fetischisierung der Technologie gebiert eine virtuelle Realität, die das genuin Menschliche, das erst in der Interaktion körperlich präsenter, bewusster und verletzlicher Wesen zutage treten kann, mehr und mehr zurückdrängt. Unsere philoso- phischen Theorien spiegeln diese Entwicklung oft ebenso wider wie unsere transhumanistischen Visionen. In diesem Essay habe ich vor 27 Vgl. Baudrillard (1976). 30
Sind wir nur Inforgs? allem die anthropologischen Grundlagen dieses Denkens, die m. E. im Behaviorismus und dessen Nachfolgertheorie, dem Computermo- dell des Geistes zu suchen sind, dargestellt und kritisch hinterfragt. Die Alternative läge in einer Neubesinnung auf unsere Leiblich- keit und endliche, verletzliche Präsenz als Voraussetzung genuiner Menschlichkeit, ja des Geistigen selbst. Das setzte auch ein anderes Verhältnis zu unseren technischen Artefakten voraus, das von Wer- ten bestimmt ist, die Zwischenmenschlichkeit fördern, anstatt sie zu substituieren und uns von unseren Artefakten abhängig zu machen.28 Doch auch die Entwicklung solcher Werte setzte als Grundlage die Einsicht voraus, dass wir irreduzibel analoge Wesen sind, die mit dem Digitalen umgehen wollen, ohne von ihm absorbiert zu werden. Literatur Baudrillard, Jean (1976), L’échange symbolique et la mort. Paris. Block, Ned (1978), Troubles with Functionalism. In: Minnesota Studies in the Philosophy of Science 9, 261–325. Chalmers, David J. (1995), Facing up to the Problem of Consciousness. In: Journal of Consciousness Studies 2, 200–219. Chalmers, David J. (1996), The Conscious Mind. In Search of a Fundamen- tal Theory. Oxford. Floridi, Luciano (2011), The Philosophy of Information. Oxford. Floridi, Luciano (2013), The Ethics of Information. Oxford. Floridi, Luciano (2015), Die 4. Revolution. Wie die Infosphäre unser Leben verändert. Berlin. Fuchs, Thomas (2017), Das Gehirn – Ein Beziehungsorgan. Eine phänome- nologisch-ökologische Konzeption. 5. Auflage. Stuttgart. Fuchs, Thomas (2020), Verteidigung des Menschen. Grundfragen einer ver- körperten Anthropologie. Frankfurt a. M. Hoff, Johannes (2021), Verteidigung des Heiligen. Anthropologie der digita- len Transformation. Freiburg. 28 Zur Entwicklung einer solchen, an Max Schelers Ethik angelehnten Wertekon- zeption für die Digitale Welt vgl. Spiekermann (2019). 31
Enrico Grube La Mettrie, Julien (2009), L’Homme-Machine / Die Maschine Mensch. Hamburg. Merleau-Ponty, Maurice (2011), Phänomenologie der Wahrnehmung. 6. Auflage. Berlin. Nagel, Thomas (1974), What is it Like to Be a Bat? In: Philosophical Review 4, 435–50. Noë, Alva (2012), Varieties of Presence. Cambridge, MA. Ryle, Gilbert (1949), The Concept of Mind. London. Searle, John (1981), Minds, Brains, and Programs. In: Behavioral and Brain Sciences 3, 417–57. Deutsche Übersetzung: Geist, Gehirn, Programm. In: Walter Zimmerli / Stefan Wolf (Hg.) (1994), Künstliche Intelligenz. Philosophische Probleme. Stuttgart, 232–265. Searle, John (1999), The Chinese Room Argument. In: Robert A. Wilson / Frank Keil (Hg.), The MIT Encyclopedia of the Cognitive Sciences. Cambridge, MA, 115–116. Spiekermann, Sarah (2019), Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert. München. Strittmatter, Kai (2018), Die Neuerfindung der Diktatur. Wie China den digi- talen Überwachungsstaat aufbaut und uns damit herausfordert. München. Turing, Alan (1950), Computing Machinery and Intelligence. In: Mind 59: 433–60. Deutsche Übersetzung: Kann eine Maschine denken? In: Walter Zimmerli / Stefan Wolf (Hg.) (1994), Künstliche Intelligenz. Philosophi- sche Probleme. Stuttgart, 39–78. 32
Sie können auch lesen