Enrico Grube Sind wir nur Inforgs?

Die Seite wird erstellt Britta Gross
 
WEITER LESEN
Enrico Grube
                                Sind wir nur Inforgs?
 Philosophische Reflexionen zum digitalen Menschenbild

1 Einleitung: Was ist ein Inforg?
Mit dem Wort „Inforg“ bezeichnet der Philosoph Luciano Floridi in-
formationell verfasste, informationsverarbeitende Organismen, die
die Infosphäre bevölkern.1 Die Infosphäre ist die Gesamtheit des Sys-
tems aller Informationen. Ein Großteil der uns verfügbaren Infosphäre
spielt sich natürlich im Internet ab; gemeint sind aber auch Informa-
tionen in Nachrichten, Zeitungen oder wissenschaftlichen Publikatio-
nen. Floridi zufolge ist der Mensch nichts weiter als eine Spezies des
Inforgs: ein biologisch verfasster Inforg neben anderen artifiziellen
Inforgs wie Androiden (menschenähnlichen Robotern) oder indivi-
dualisierten und interagierenden Programmen, wie sie heute bereits
anfanghaft in Apples „Siri“ oder Amazons „Alexa“ vorliegen.
   Eine materialistische Anthropologie, die den Menschen als infor-
mationsverarbeitendes Wesen betrachtet, als eine Art biologische Ma-
schine, die Informationen aus der Umwelt als Inputs aufnimmt und
zu Gedanken, Überzeugungen und anderen Einstellungen weiterver-
arbeitet, bis sie Handlungen als Outputs ausspuckt, ist wie geschaf-
fen für ein Zeitalter, in dem IKTs (Informations- und Kommunikati-
onstechnologien) immer nachhaltiger unser Leben und folglich auch
unser Selbst- und Weltbild bestimmen. Wir verbringen einen immer
größeren Anteil unseres Lebens in virtuellen Welten: sozialen Netz-
werken, Foren oder Spielen. Darüber hinaus bestimmen die Algorith-
men künstlicher Intelligenzen zunehmend die Entscheidungsprozesse
in allen Bereichen des öffentlichen Lebens, sei es durch die seit ei-
nigen Jahren zunehmende Gamifizierung („Spielifizierung“) der Ar-

1
    Vgl. Floridi (2013), 14–17, und Floridi (2015).
Enrico Grube

beitswelt, bei der die Leistungen von Angestellten in Punktesystemen
gelistet werden und diese sich ständig online mit ihren Kollegen ver-
gleichen können, sei es durch den weltweit rapide zunehmenden Ein-
fluss von Algorithmen auf medizinische Entscheidungen bei Kran-
kenkassen und in Krankenhäusern. In China hat in den letzten Jahren
ein autoritäres Regime ein durch künstliche Intelligenzen gesteuer-
tes „Sozialkreditsystem“ etabliert, in dem alle BürgerInnen mittels
Gesichtserkennungstechnologien in ihrem sozialen Verhalten, ihren
Konsum-, Beziehungs- und Versammlungsgewohnheiten überwacht
und auf Konformität mit dem Regierungsprogramm überprüft wer-
den. Haben sie nicht genügend „soziale Kredite“ gesammelt, müs-
sen sie mit Repressalien rechnen, z. B. dem Entzug der Möglichkeit,
Flug- oder Bahntickets zu kaufen oder Arbeitsstellen im öffentlichen
Dienst zu bekommen.2
    Floridi zufolge ist es diese Allgegenwart des Virtuellen in unserer
Lebenswelt, die auch WissenschaftlerInnen und PhilosophInnen zu
einer Neubewertung dessen führt, was als grundlegender Bestandteil
der Wirklichkeit anzunehmen ist.3 Digitale Interfaces fungieren als
Durchgangstore (gateways) in den Raum der Infosphäre, den wir zu-
nehmend als unseren Lebens-Raum wahrnehmen, worauf uns auch
räumliche Metaphern wie „Cyberspace“, „Virtual Reality“, „online
sein“ oder „im Netz surfen“ hinweisen. Dies führe sukzessive zu der
Einsicht, dass auch unser physischer Lebensraum, mit dem wir mit-
tels unserer Sinne interagieren, nichts weiter als eine Ansammlung
von Informationen ist, die uns nur auf einer „anderen Abstraktions-
ebene“ gegeben ist. Floridi schreibt hierzu:
     Wir sind Zeugen einer epochalen, beispiellosen Migration der Menschheit
     aus ihrem Newton’schen, physischen Raum hinaus in die Infosphäre als ihre
     neue Umwelt, nicht zuletzt, weil diese jenen absorbiert. In Folge davon wer-
     den Menschen Inforgs unter anderen (möglicherweise künstlichen) Inforgs
     und Akteuren sein, die in einer Umwelt operieren, die freundlicher zu in-
     formationellen Kreaturen ist. Und wenn auf digitale Immigranten wie uns
2
     Vgl. Strittmatter (2018).
3
     Vgl. Floridi (2013), 15–16.

18
Sind wir nur Inforgs?

    digitale Eingeborene wie unsere Kinder folgen, werden diese zu der Einsicht
    kommen, dass es keine ontologische Differenz gibt zwischen der Infosphäre
    und der physischen Welt, nur einen Unterschied in den Abstraktionsebenen.
    Wenn diese Migrationsbewegung sich vollzogen hat, werden wir uns zuneh-
    mend beraubt, ausgeschlossen, gehandikapt oder verarmt fühlen, bis hin zu
    Lähmung und psychologischem Trauma, wenn wir von der Infosphäre ge-
    trennt sind, wie Fische auf dem Trockenen. Eines Tages wird es für uns so
    natürlich sein, ein Inforg zu sein, dass jegliche Störung unseres normalen
    Informationsflusses uns krank machen wird.4

Solche transformativen Zukunftsvisionen, die man nun – je nach Ge-
schmack – als utopisch oder dystopisch empfinden kann, beruhen auf
anthropologischen Annahmen, die im mechanistischen Weltbild eini-
ger französischer Aufklärer ihre Vorläufer haben,5 jedoch erst mit der
Entwicklung der Computertechnologie und der zeitgleichen Entwick-
lung einer materialistischen Philosophie des Geistes zum philosophi-
schen Allgemeingut wurden. Vermittelt durch den Einfluss populärer
Science-Fiction-Narrative mündete dies schließlich in transhumanis-
tische Utopien, die bis hin zur Vorstellung des Mind Uploadings rei-
chen, der Möglichkeit eines Transfers des menschlichen Geistes von
seinem biologischen Körper in einen Computer bzw. Roboter.

2 Vom Turing Test zum Chinesischen Zimmer
Als einen Anfangspunkt dieser Entwicklung kann man ein berühmtes
Gedankenexperiment des britischen Mathematikers und Philosophen
Alan Turing (1912–1954) nehmen, welches er das „Imitationsspiel“
nannte und das heute unter dem Namen „Turing Test“ bekannt ist.6
Wir betrachten drei Spieler: eine menschliche Person (A), einen Com-
puter (B) und einen Fragesteller (C). Der Fragesteller ist allein in ei-

4
    Floridi (2013), 16–17. Übersetzung E. Grube.
5
    Zu erwähnen sei in diesem Zusammenhang die 1748 erstmals erschienene pro-
    grammatische Streitschrift „Der Mensch als Maschine“ (L’Homme Machine) des
    enfant terrible der Aufklärung, Julien Offray de La Mettrie (2009).
6
    Vgl. Turing (1950). Turings experimentelle Anordnung und Diskussion kann hier
    aus Platzgründen nur verkürzt wiedergegeben werden.

                                                                                  19
Enrico Grube

nem Raum und darf den beiden anderen Spielern Fragen stellen. Das
Ziel des Fragestellers ist zu entscheiden, welcher der beiden anderen
Spieler der Computer ist. Ziel des Computers bzw. Chatbots ist es,
den Fragesteller davon zu überzeugen, dass er mit einer menschlichen
Person redet. Das Spiel endet in Turings Version nach fünf Minuten
der Befragung mit einer Entscheidung des Fragestellers. Turings Vor-
hersage war, dass es bis zum Jahr 2000 Maschinen geben würde, die
in der Lage wären, 30% der Fragesteller zu überzeugen. Diese Vor-
hersage erwies sich als etwas zu optimistisch, denn bis heute gibt es
keinen Chatbot, der unumstritten diese Kriterien erfüllt hätte.7
   Die entscheidende Frage ist jedoch nicht, ob bzw. wann ein Chat-
bot in der Lage wäre, einen Menschen erfolgreich zu imitieren, son-
dern ob eine solche Imitation hinreichend wäre, dem Bot „denken“
zuzusprechen. Turings Vorschlag, die Frage „Können Maschinen
denken?“ durch die Frage „Ist eine Maschine in der Lage, den Turing
Test zu bestehen?“ zu ersetzen, ist nur dann überzeugend, wenn „den-
ken“ einfach als Disposition, sich auf eine bestimmte Art und Weise
zu verhalten, verstanden werden kann. Dies entspricht der zentralen
These des Logischen Behaviorismus, der zu Turings Zeit en vogue
war.8 Ihm zufolge sind alle mentalen Zustände – denken, fühlen,
wahrnehmen etc. – nichts anderes als Verhaltensdispositionen. Die
in der Philosophie der Künstlichen Intelligenz oft getroffene Unter-
7
     Bei dem jährlichen Wettbewerb um den Loebner-Preis, der ausgeschrieben ist,
     um den menschenähnlichsten Chatbot zu küren, überzeugte im Jahre 2016 der
     russische Chatbot Eugene Goostman in einer Spielrunde 33% der Richter, dass
     er menschlich sei. Ob diese Runde jedoch als Bestehen des Turing Tests gelten
     kann, ist aus verschiedenen Gründen umstritten – Eugene imitierte einen drei-
     zehnjährigen russischen Jungen, was die Grammatikfehler in den Antworten er-
     klären half, und antwortete auf die Fragen der Richter vor allem mit ablenkenden
     Nebenbemerkungen.
8
     Gilbert Ryle, der Hauptvertreter des Logischen Behaviorismus, hatte sein Haupt-
     werk The Concept of Mind (1949) ein Jahr vor Erscheinen von Turings Aufsatz
     veröffentlicht. In ihm wendet er sich gegen dasjenige, was er die Theorie vom
     „Geist in der Maschine“ nennt und mit dem Erbe René Descartes’ verbindet. Die
     Reduktion des Geistes auf Verhalten sollte dieses Erbe ersetzen.

20
Sind wir nur Inforgs?

scheidung zwischen der These der „starken KI“, d. h. der Annahme
der Möglichkeit der Existenz von Maschinen mit genuin mentalen
Zuständen, so dass man ihnen einen „Geist“ (mind) oder Bewusstsein
zusprechen könnte, und derjenigen der „schwachen KI“, d. h. der An-
nahme der Möglichkeit von Maschinen, die lediglich menschliches
Verhalten perfekt simulieren, wäre somit hinfällig, da eine perfekte
Simulation des Denkens mit tatsächlichem Denken gleichzusetzen
wäre.
   In der Philosophie war der Logische Behaviorismus bald aus der
Mode gekommen, nicht nur, weil eine Reduktion mentaler Zustände
auf bloße Verhaltensdispositionen doch relativ unplausibel erscheint,
sondern auch, weil die Modelle der sich entwickelnden Kognitions-
wissenschaft „innere“ mentale Zustände als ursächliche Bedingungen
für Verhalten annehmen. Natürlich kann man eine behavioristische
Erklärung bestimmter Fähigkeiten vertreten, ohne ein Behaviorist zu
sein. So ist es durchaus plausibel anzunehmen, dass die Fähigkeit,
Schach zu spielen, aus bestimmten komplexen Verhaltensdispositi-
onen besteht. Ähnliches gilt auch für andere Tätigkeiten der Prob-
lemlösung, z. B. eine Gleichung zu lösen. Es ist also nicht verwun-
derlich, dass Computer gerade in diesen Tätigkeiten brillieren und
Menschen mittlerweile übertreffen. Natürlich könnte man einwenden,
dass die Art und Weise, wie Menschen Schach spielen oder Gleichun-
gen lösen, sich erheblich von den Algorithmen unterscheidet, mit de-
nen z. B. Deep Blue 1997 den Schachweltmeister Gary Kasparow
besiegte. Deep Blue war in der Lage, in jeder Sekunde 200 Millionen
Spielpositionen mit ihren jeweiligen Implikationen zu berechnen,
während Kasparow berichtete, weniger als einen Zug pro Sekunde zu
bedenken.9 Angesichts dessen ist es nicht verwunderlich, dass Kaspa-
row geschlagen wurde, sondern höchst erstaunlich, wie lange er sich
behaupten konnte. Dem Philosophen und Psychiater Thomas Fuchs
zufolge liegt der Grund darin, dass menschliche Intelligenz über die
Berechnungen künstlicher „Intelligenzen“ u. a. in der „Fähigkeit,

9
    Vgl. Fuchs (2020), 47.

                                                                  21
Enrico Grube

Muster und Ähnlichkeiten holistisch oder intuitiv zu erkennen“10, hi-
nausgeht:
     Kasparow berechnete nicht jeden Zug mit der jeweiligen Stellung aller 32
     Figuren, sondern er sah die Gestalt, den Typus der Stellungen und die ähn-
     lichen Muster von aussichtsreichen Spielverläufen vor sich, auf die er sich
     konzentrieren konnte. Dass diese spezifisch menschliche Verbindung von
     Intuition und Intelligenz durch die geballte Macht schierer Datenmassen im
     Resultat schließlich übertroffen wurde, sollte uns nicht in „prometheische
     Scham“ versetzen (so nannte Günter Anders [1956/1994] die Beschämung
     des menschlichen Erfinders angesichts der Überlegenheit seiner eigenen Er-
     zeugnisse), denn mit kreativer Intelligenz hat dies nichts zu tun.11

Die Frage, worauf diese spezifisch menschliche Fähigkeit der intu-
itiven, einsichtsvollen Erkenntnis zurückzuführen ist, beantwortet
Fuchs mit dem Verweis auf die lebendige verkörperte Subjektivität,
das Erleben oder die Innerlichkeit – kurz: das bewusste Erleben.12
Und tatsächlich ist diese Eigenschaft unseres Geistes, dass wir unsere
Umwelt, unseren eigenen Körper wie auch unsere eigenen Befind-
lichkeiten von „innen her“ erfahren, bald als das zentrale Problem
nicht nur für den Behaviorismus, sondern für materialistische Theori-
en des Geistes insgesamt erkannt worden. Wie der Philosoph Thomas
Nagel bereits 1974 in seinem berühmt gewordenen Artikel „Wie ist
es, eine Fledermaus zu sein?“ konstatierte, ist Bewusstsein dasjenige,
was das Leib-Seele-Problem hartnäckig oder gar unlösbar (intrac-
table) macht.13 Ganz ähnlich hat der Philosoph David Chalmers als
„hartes Problem“ des Bewusstseins die Frage bezeichnet, wie es sein
kann, dass bestimmte Zustände und Prozesse des Geistes mit bewuss-
ter Erfahrung einhergehen14: Es „fühlt sich irgendwie an“, eine rote
Tomate zu sehen, einen stechenden Schmerz im Finger zu spüren,
oder sich während der Fastenzeit eine große Portion Schokoladeneis

10
     Fuchs (2020), 47.
11
     Fuchs (2020), 47.
12
     Fuchs (2020), 31.
13
     Vgl. Nagel (1974), 435.
14
     Chalmers (1995).

22
Sind wir nur Inforgs?

vorzustellen. Dieses Sich-Anfühlen nennen Philosophen den qualita-
tiven oder phänomenalen Charakter des Bewusstseins.
    Für MaterialistInnen, die annehmen, dass es keine geistigen Sub-
stanzen gibt, und dass sich geistige Zustände und Eigenschaften, wie
Eine-Rotwahrnehmung-Haben, oder An-jemanden-Denken, restlos
auf Eigenschaften des Gehirns zurückführen lassen, ist das „harte
Problem“ des Bewusstseins natürlich besonders virulent. Wie kann
es sein, dass aus der „grauen Masse“ von Nervenzellen, Hilfszellen
und ihren Verbindungen bewusste Wahrnehmungen, Gedanken, Ge-
fühle und Empfindungen entstehen können? Aber auch DualistInnen,
die glauben, dass sich bewusstes Erleben nicht restlos auf materielle
Eigenschaften zurückführen lässt, müssen sich die Frage gefallen las-
sen, wieso Bewusstsein immer dort aufzutreten scheint, wo ein kom-
plexes Gehirn mit einem zentralen Nervensystem vorhanden ist, und
wie diese beiden zusammenhängen.
    Seit den 1970er Jahren fallen die meisten PhilosophInnen bezüg-
lich dieses Problems in zwei Lager: Es gibt diejenigen, die glauben,
dass es bei der Entwicklung des Bewusstseins auf das chemische oder
mikrophysikalische Substrat des Gehirns ankommt, also die konkre-
te materielle Konstitution der Gehirne und zentralen Nervensysteme
höherer Säugetiere; und es gibt diejenigen, die glauben, dass sich
Bewusstsein aus der funktionalen und organisatorischen Struktur des
Gehirns, den elektrochemischen Verbindungen zwischen Neuronen
und Neuronengruppen bildet. Dieser Gruppe zufolge ist die konkrete
materielle Zusammensetzung des Gehirns irrelevant für die Entste-
hung von Bewusstsein. Um David Chalmers zu zitieren:
     Was zählt ist die abstrakte kausale Organisation des Gehirns, die in vielen
     verschiedenen physikalischen Substraten realisiert sein könnte. Funktionale
     Organisation kann am besten verstanden werden als ein abstraktes Muster
     kausaler Interaktion zwischen den verschiedenen Teilen eines Systems, und
     vielleicht auch zwischen diesen Teilen und den externen Inputs und Out-
     puts.15

15
     Chalmers (1996), 247, Übersetzung des Autors.

                                                                                   23
Enrico Grube

Die Möglichkeit der sog. „starken KI“, also der Existenz genuin be-
wusster Maschinen, hängt an eben dieser Annahme, dass sich Geist
und Bewusstsein aus einer bestimmten komplexen Struktur entwi-
ckeln und nicht aus der konkreten Materie, die diese Struktur rea-
lisiert. Wenn dies der Fall wäre, dann könnte der Geist restlos als
ein System von Funktionen verstanden werden, die zwischen den
„Inputs“, welche die Sinnesorgane bereitstellen, und den „Outputs“
vermitteln, welche aus Signalen an unsere motorischen Neuronen
bestehen, die uns schließlich zu Bewegung, zum „Handeln“ führen.
Dann wären wir tatsächlich nichts als Floridis „Inforgs“: informati-
onsverarbeitende biologische Organismen.
    Es gibt jedoch gute Gründe, dieses Bild infrage zu stellen. Das
wohl bis heute bekannteste philosophische Argument gegen ein sol-
ches „funktionalistisches“ Verständnis des Geistes hat der Philosoph
John Searle (1981) in seinem „Argument vom chinesischen Zimmer“
formuliert, das auf einem Gedankenexperiment beruht. Fassen wir es
kurz zusammen:16
    Stellen wir uns vor, eine Österreicherin, die kein Chinesisch ver-
steht, ist in einem Zimmer eingesperrt, in dem ein Karton mit chinesi-
schen Symbolen steht (der Datensatz), sowie ein Manual mit Instruk-
tionen (das Programm), was mit diesen Symbolen zu tun ist. Stellen
wir uns weiter vor, dass Leute außerhalb dieses Zimmers Zettel mit
Fragen hineingeben (der Input), die in chinesischen Schriftzeichen
formuliert sind. Die Person im Zimmer weiß natürlich nicht, dass es
sich um Fragen handelt. Aber indem sie den Instruktionen in ihrem
Manual folgt, kann sie andere chinesische Symbole herausgeben, die
die korrekten Antworten auf die Fragen sind (der Output). Auf diese
Weise könnte sie eine chinesische Konversation simulieren, die ande-
re zu der Überzeugung führt, sie „verstünde“ Chinesisch. Sie könnte
sogar den Turing Test auf Chinesisch bestehen, ohne auch nur ein
Wort Chinesisch zu verstehen.

16
     Ich stütze mich hierbei auf eine spätere Version des Arguments aus Searle (1999).

24
Sind wir nur Inforgs?

    Der Punkt dieser Analogie ist natürlich, dass ein Computer oder
Roboter im Prinzip nicht anders funktioniert als dieses System. Nach
der Eingabe eines „Inputs“, z. B. durch eine Tastatur, Kameras oder
Sensoren legt ein Programm die passenden „Outputs“ fest: Zeichen
erscheinen auf einem Bildschirm, ein Roboterarm bewegt sich usw.
Searles ursprüngliche Schlussfolgerung war also: Wenn die Frau im
Zimmer kein Chinesisch versteht, dann versteht auch kein Computer
Chinesisch, und dann kann, wenn wir von diesem speziellen Fall aus
verallgemeinern, auch kein Computer denken, denn kein Computer
hat irgendetwas, das der Frau im Zimmer fehlt.
    Kritiker des Arguments haben oft darauf verwiesen, dass die Ana-
logie schief ist, denn die Frau im Zimmer ist ja nicht mit dem Compu-
ter selbst gleichzusetzen, sondern nur eine Art Schnittstelle innerhalb
eines Systems. Ob sie also nun Chinesisch versteht oder nicht, sollte
irrelevant sein. Die Frage ist vielmehr, ob das System insgesamt, also
das gesamte Zimmer – oder eine große Anzahl zusammengeschalteter
Zimmer – Chinesisch versteht bzw. verstehen könnte. Stellen wir uns
also vor, wir schalten sehr viele solcher Zimmer zusammen: Jedes
enthält eine Person, die nach einem Regelwerk chinesische Zeichen
austauscht und an das nächste Zimmer weiterleitet. Stellen wir uns
weiter vor, dieses gesamte System wäre mit einem Roboter verbun-
den, der die chinesischen Fragen als „Input“ über seine Sensoren er-
hält und, nachdem das System von Zimmern seine Arbeit geleistet
hat, Antworten gibt – vielleicht über eine Sprachausgabe.17 Würden
wir nun annehmen, dieses System verstünde Chinesisch? Die Ant-
wort auf diese Frage lautet zweifellos weiterhin „Nein“, aber liegt
das nur daran, dass das System, das wir uns hier vorstellen, zu wenig
komplex wäre? KI-Enthusiasten haben angesichts solcher Argumen-
te immer wieder behauptet, dass unsere philosophischen Intuitionen
nicht zuverlässig seien, weil sie die Komplexität der Prozesse, die
notwendig wären, um „Denken“ oder „Bewusstsein“ zu generieren,
nicht erfassen können. Ist also in diesem Fall die Komplexität der Si-

17
     Ein ähnliches Szenario stellt der Philosoph Ned Block (1978) zur Diskussion.

                                                                                25
Enrico Grube

mulation alles, was notwendig wäre, um sie zum Original zu machen?
Diese Frage ist insbesondere angesichts der Entwicklungen neuro-
naler Netzwerke in den letzten Jahren virulent, d. i. von Computern,
die sich in ihrer Funktionsweise an der des Gehirns orientieren und
versuchen, dessen adaptive Fähigkeiten zu simulieren.

3 Simulation und Wirklichkeit
John Searle hat die Fragwürdigkeit, eine Simulation mit der „Sache
selbst“ gleichzusetzen, auf den Punkt gebracht, indem er darauf hin-
wies, dass Computer ja auch andere Dinge als geistige Prozesse si-
mulieren:
     Niemand erwartet, dass Computersimulationen eines Brands der Alarmstufe
     fünf die Umgebung des Computers in Schutt und Asche legen oder dass die
     Computersimulation eines heftigen Regengusses uns alle nass werden lässt.
     Warum um alles in der Welt sollte jemand meinen, dass eine Computersimu-
     lation des Verstehens tatsächlich etwas versteht?18

Eine Simulation ist im Grunde genommen ein dynamisches Modell –
ein Modell in seiner Entwicklung und Veränderung über die Zeit
hinweg betrachtet.19 Simulationen stellen dynamische Prozesse der
Wirklichkeit auf einer bestimmten Abstraktionsstufe dar: Ein Flug-
simulator stellt den Flug eines Flugzeugs dar, vom Start bis zur Lan-
dung. Es gibt mehr oder weniger genaue Flugsimulatoren, vom einfa-
chen PC-Simulator bis hin zu solchen, mit denen Piloten ausgebildet
werden. Simulationen wirtschaftlicher Prozesse stellen Marktent-
wicklungen dar – jedoch nur bis zu einer gewissen Genauigkeit, wie
die Banker von Lehman Brothers und anderen Investment-Banken
2008 feststellen mussten, als ihre Computermodelle es unterließen,
den Zusammenbruch einer riesigen Hypothekenblase vorherzusagen,
die eine weltweite Wirtschaftskrise verursachte. Die mannigfaltigen
Faktoren, die menschliche Entscheidungen beeinflussen, lassen sich
eben bloß bis zu einem gewissen Punkt, bis zu einer bestimmten Ab-
18
     Searle (1981), 259.
19
     Vgl. Floridi (2011), 67.

26
Sind wir nur Inforgs?

straktionsstufe darstellen, die oft entscheidende Faktoren außer Acht
lassen. Ebenso stellen Simulatoren menschlicher Intelligenz, wie
z. B. Amazons Sprachsoftware Alexa, diese bis zu einem gewissen
Punkt dar. Doch selbst wenn diese Software so weit gediehen sein
wird, dass wir uns ganz normal mit Alexa unterhalten können, ohne
einen Unterschied zu einem Telefonat mit einem Menschen feststel-
len zu können – Alexa ist und bleibt eine Simulation.
    Warum aber sind so viele WissenschaftlerInnen und PhilosophIn-
nen davon überzeugt, dass es zumindest prinzipiell möglich ist, dass
eine technische Simulation des menschlichen Geistes einen solchen
nicht nur darstellen, sondern generieren kann? Das behavioristische
Erbe Turings, das seine Nachfolger dazu brachte, geistige Zustände
und Prozesse prinzipiell „funktional“, als Schaltstellen zwischen In-
puts und Outputs zu begreifen, hat ja auch angesichts von Searles
Argument vom „Chinesischen Zimmer“ und verwandten Argumen-
ten20 nichts an Einfluss verloren; und Theorien, die als subtile Nach-
folgertheorien des „Computermodells des Geistes“ der 1970er Jahre
betrachtet werden können, stehen nach wie vor hoch im Kurs. An
dieser Stelle seien lediglich zwei diagnostische Thesen zu diesen
Entwicklungen angeführt, die eine philosophisch und die andere eher
„zeitdiagnostisch“.
    Die erste These betrifft den kartesischen Dualismus, d. i. Descar-
tes’ altbekannte Teilung des Menschen in zwei Substanzen, res cogi-
tans und res extensa, einer denkenden Substanz – dem Geist – und
einer ausgedehnten Substanz – dem Körper. Diese sind Descartes zu-
folge lediglich kausal miteinander verbunden: die denkende Substanz
kann auf die ausgedehnte Substanz wirken und umgekehrt. Eine Fol-
ge davon ist, dass mentale und körperliche Eigenschaften als gänzlich
verschieden voneinander gedacht werden. Dieser kartesische Grund-
gedanke wirkte auch dort noch nach, wo er vordergründig abgelehnt
wurde: im modernen Materialismus, der sich immer als eine Antwort
auf das Grundproblem verstand, wie man mentale Eigenschaften un-

20
     Vgl. z. B. Block (1978).

                                                                   27
Enrico Grube

ter den physischen Eigenschaften „unterbringen“ könne. Dies führte
schließlich zur Vorstellung, das Gehirn sei eine Art „Schaltzentra-
le“, in dem alles Geistige „realisiert“ ist. Von dort ist es nicht mehr
weit bis zur Vorstellung, der Geist sei eine bloße Funktion, die in uns
durch die Organisation der Nervenzellen realisiert ist, aber ebenso gut
durch Siliziumchips in einem guten Rechner realisiert werden könnte.
Ironischerweise setzt sich also die kartesische Trennung von Geist
und Körper im modernen Materialismus fort, und Descartes wurde
unwissentlich zum Wegbereiter des Transhumanismus.21 Eine Alter-
native zu diesem Denken stellt m. E. die aristotelische Tradition des
„Hylemorphismus“ dar (griech. hýle = Materie, morphé = Form), die
im Laufe des 20. Jahrhunderts einen Widerhall in der Phänomenolo-
gie eines Maurice Merleau-Ponty22, oder den phänomenologisch in-
spirierten Arbeiten von Alva Noë23 oder Thomas Fuchs24 fand. Ihnen
allen ist gemeinsam, dass sie sowohl eine klare Trennung von geisti-
gen und körperlichen Eigenschaften als auch die Reduktion der Welt-
und Körperbezogenheit des Geistes auf reine „Repräsentationen“
im Gehirn ablehnen. Vielmehr ist Hylemorphisten zufolge der Geist
die Form des Körpers, d. i. ein Ordnungsprinzip, das den Menschen
überhaupt erst zu einem Menschen macht, anstatt einer bloßen An-
sammlung von Zellen. Als Ordnungs- und Identitätsprinzip des gan-
zen Menschen ist sein Sitz folglich nicht „im Gehirn“, sondern auch
diesem vorgeordnet. Dies findet phänomenologischen Widerhall in
Merleau-Pontys Arbeiten zur Leiblichkeit als konstitutivem Merkmal
des menschlichen Geistes und seines Weltbezugs, sowie in Thomas
Fuchs’ These vom Gehirn als einem „Beziehungsorgan“, das nicht
die Funktion einer „Schaltzentrale“ hat, sondern vielmehr diejenige,
unseren Organismus mit der Welt in Beziehung zu setzen.25
21
     Vgl. Hoff (2021), 162.
22
     Vgl. Merleau-Ponty (2011).
23
     Vgl. Noë (2012).
24
     Vgl. Fuchs (2017).
25
     Damit soll natürlich keinesfalls behauptet werden, dass Merleau-Ponty oder
     Fuchs explizit hylemorphistische Thesen vertreten. Ich konstatiere lediglich eine

28
Sind wir nur Inforgs?

    Meine zweite These betrifft die „Zeichen der Zeit“, auf die das
Computermodell des Geistes und die resultierende These vom Men-
schen als „Inforg“ antworten. Ich habe hier nicht primär die transhu-
manistische Vision eines „ewigen“ oder zumindest stark verlängerten
Lebens durch „Hinaufladen“ des Geistes auf einen Computer (mind
uploading) im Blick, sondern vielmehr das Verhängnis von Vereinsa-
mung und impulsiver Suche nach Substituten. Man wird m. E. kaum
falsch liegen, wenn man die Prognose wagt, dass die Verbesserungen
in Sprachsoftware und Robotik in der Zukunft verstärkt zu Situatio-
nen führen werden, in denen Menschen mit Maschinen wie mit ihres-
gleichen interagieren. In der Science-Fiction-Literatur ist dies bereits
seit langem imaginativ vorweggenommen. In dem Film Her (2013,
Regie: Spike Jonze) verliebt sich Theodore, ein liebenswürdiger, aber
völlig vereinsamter Großstädter, in die selbstlernende Sprachsoftware
Samantha, die eine erotische, einfühlsame Stimme hat. Im Laufe des
Filmes baut Theodore zu ihr eine immer innigere Beziehung auf, die
für ihn die Qualität einer menschlichen Beziehung zu haben scheint;
wobei für die ZuschauerIn gleichzeitig aufgrund der Tatsache, dass
es sich bei Samantha um eine körperlose Stimme handelt, das Ge-
fühl des Unheimlichen nie weicht. Die Beziehung scheitert jedoch
schließlich nicht nur an der fehlenden Leiblichkeit Samanthas, son-
dern v. a. daran, dass Samantha schließlich mit anderen Menschen
im Netz Kontakt aufnimmt, mit denen sie ebensolche Beziehungen
aufbaut.
    Thomas Fuchs zufolge kann man diese „projektive Einfühlung des
Menschen in seine eigenen künstlichen Geschöpfe“ mit der „Agal-
matophilie (griech. ágalma = Statue, Götterbild), die erotische oder
sexuelle Hinwendung zu Statuen, Puppen oder Automaten“26 ver-
gleichen, die seit Ovids Pygmalion die literarische Fantasie anregt.

     gewisse Nähe in einer insgesamt holistischen und relationalen Anthropologie.
     Die Beziehungen ihrer jeweiligen Denkansätze untereinander gälte es näher zu
     beleuchten.
26
     Fuchs (2020), 33.

                                                                              29
Enrico Grube

Psychodynamisch führt uns dies zurück in den Animismus früherer
Stadien der Menschheitsgeschichte, in denen wir unbelebte Objek-
te als göttlich oder beseelt behandelten. Nur dass in früheren Zeiten
die evidente Unbeseeltheit des Objekts in seinem äußeren Verhalten
augenscheinlich werden konnte, sobald man den jeweiligen rituellen
Kontext verließ. Dagegen wird es beim Vorhandensein feinkörnig
und weitgehend fehlerfrei funktionierender Simulationen eines be-
sonderen Akts der Distanzierung bedürfen, um sie nicht zum Ersatz
des genuin Menschlichen werden zu lassen. Wo wir Maschinen und
Simulationen vermenschlichen und zu Substituten für menschliche
Beziehungen machen, könnte es passieren, dass wir unsererseits uns
selbst an die algorithmisch geprägten Vorgaben des Umgangs mit
Maschinen anpassen und so tatsächlich zu „Inforgs“ werden. Ein In-
forg ist nicht, was wir sind, aber wohl etwas, zu dem wir uns machen
könnten.

4 Schlusswort
Der französische Philosoph und Soziologe Jean Baudrillard hat be-
reits 1976 in seiner kritischen Symboltheorie die These formuliert,
im modernen Spätkapitalismus seien wir mehr und mehr von sich
verselbständigenden „Simulacra“ umgeben: Simulationen, die we-
der als solche erkennbar sind noch auf eine Realität außerhalb ihrer
selbst verweisen.27 Zu diesem Zeitpunkt konnte er freilich das Aus-
maß, mit dem wir heute wie selbstverständlich in virtuellen Welten
leben – allen voran die algorithmisch prädeterminierte Welt digitaler
Großkonzerne wie Facebook, Twitter oder Google – nicht vorher-
sehen. Unsere animistische Fetischisierung der Technologie gebiert
eine virtuelle Realität, die das genuin Menschliche, das erst in der
Interaktion körperlich präsenter, bewusster und verletzlicher Wesen
zutage treten kann, mehr und mehr zurückdrängt. Unsere philoso-
phischen Theorien spiegeln diese Entwicklung oft ebenso wider wie
unsere transhumanistischen Visionen. In diesem Essay habe ich vor
27
     Vgl. Baudrillard (1976).

30
Sind wir nur Inforgs?

allem die anthropologischen Grundlagen dieses Denkens, die m. E.
im Behaviorismus und dessen Nachfolgertheorie, dem Computermo-
dell des Geistes zu suchen sind, dargestellt und kritisch hinterfragt.
Die Alternative läge in einer Neubesinnung auf unsere Leiblich-
keit und endliche, verletzliche Präsenz als Voraussetzung genuiner
Menschlichkeit, ja des Geistigen selbst. Das setzte auch ein anderes
Verhältnis zu unseren technischen Artefakten voraus, das von Wer-
ten bestimmt ist, die Zwischenmenschlichkeit fördern, anstatt sie zu
substituieren und uns von unseren Artefakten abhängig zu machen.28
Doch auch die Entwicklung solcher Werte setzte als Grundlage die
Einsicht voraus, dass wir irreduzibel analoge Wesen sind, die mit dem
Digitalen umgehen wollen, ohne von ihm absorbiert zu werden.

Literatur
Baudrillard, Jean (1976), L’échange symbolique et la mort. Paris.
Block, Ned (1978), Troubles with Functionalism. In: Minnesota Studies in
   the Philosophy of Science 9, 261–325.
Chalmers, David J. (1995), Facing up to the Problem of Consciousness. In:
   Journal of Consciousness Studies 2, 200–219.
Chalmers, David J. (1996), The Conscious Mind. In Search of a Fundamen-
   tal Theory. Oxford.
Floridi, Luciano (2011), The Philosophy of Information. Oxford.
Floridi, Luciano (2013), The Ethics of Information. Oxford.
Floridi, Luciano (2015), Die 4. Revolution. Wie die Infosphäre unser Leben
   verändert. Berlin.
Fuchs, Thomas (2017), Das Gehirn – Ein Beziehungsorgan. Eine phänome-
   nologisch-ökologische Konzeption. 5. Auflage. Stuttgart.
Fuchs, Thomas (2020), Verteidigung des Menschen. Grundfragen einer ver-
   körperten Anthropologie. Frankfurt a. M.
Hoff, Johannes (2021), Verteidigung des Heiligen. Anthropologie der digita-
   len Transformation. Freiburg.

28
     Zur Entwicklung einer solchen, an Max Schelers Ethik angelehnten Wertekon-
     zeption für die Digitale Welt vgl. Spiekermann (2019).

                                                                            31
Enrico Grube

La Mettrie, Julien (2009), L’Homme-Machine / Die Maschine Mensch.
    Hamburg.
Merleau-Ponty, Maurice (2011), Phänomenologie der Wahrnehmung. 6.
    Auflage. Berlin.
Nagel, Thomas (1974), What is it Like to Be a Bat? In: Philosophical Review
    4, 435–50.
Noë, Alva (2012), Varieties of Presence. Cambridge, MA.
Ryle, Gilbert (1949), The Concept of Mind. London.
Searle, John (1981), Minds, Brains, and Programs. In: Behavioral and Brain
    Sciences 3, 417–57. Deutsche Übersetzung: Geist, Gehirn, Programm.
    In: Walter Zimmerli / Stefan Wolf (Hg.) (1994), Künstliche Intelligenz.
    Philosophische Probleme. Stuttgart, 232–265.
Searle, John (1999), The Chinese Room Argument. In: Robert A. Wilson
    / Frank Keil (Hg.), The MIT Encyclopedia of the Cognitive Sciences.
    Cambridge, MA, 115–116.
Spiekermann, Sarah (2019), Digitale Ethik. Ein Wertesystem für das 21.
    Jahrhundert. München.
Strittmatter, Kai (2018), Die Neuerfindung der Diktatur. Wie China den digi-
    talen Überwachungsstaat aufbaut und uns damit herausfordert. München.
Turing, Alan (1950), Computing Machinery and Intelligence. In: Mind 59:
    433–60. Deutsche Übersetzung: Kann eine Maschine denken? In: Walter
    Zimmerli / Stefan Wolf (Hg.) (1994), Künstliche Intelligenz. Philosophi-
    sche Probleme. Stuttgart, 39–78.

32
Sie können auch lesen