Ich bremse auch für Tiere Mittwoch, 04.12.2013

Die Seite wird erstellt Len Siegel
 
WEITER LESEN
Ich bremse auch für Tiere Mittwoch, 04.12.2013
Mittwoch, 04.12.2013

Ich bremse auch für Tiere

                                   Überlegungen zu einfachen moralischen Maschinen:
                                   Ein Gastbeitrag von Oliver Bendel.

                                 Wie kann man gute Autos noch besser machen? Oder gute
                                 Drucker? Oder gute Sauger? Indem man ihnen Manieren
                                 und Moral beibringt. Für das eine ist der Knigge zuständig,
                                 für das andere die Philosophie seit nunmehr 2500 Jahren.
                                 Die junge Disziplin der Maschinenethik hat die Moral von
                                 Maschinen zum Gegenstand, vor allem von (teil-
                                 )autonomen Systemen wie Agenten, Chatbots, Robotern,
                                 Drohnen und selbstständig fahrenden Autos. Sie kann
                                 innerhalb von Informations- und Technikethik eingeordnet
                                 oder als Pendant zur Menschenethik angesehen werden.
                                 Moralische Maschinen werden entweder als solche
                                 konzipiert oder auf der Basis von gewöhnlichen Systemen
                                 entwickelt, die den Prozess des "Moralisierens" dieser
Begriff wird im vorliegenden Kontext umgedeutet durchlaufen müssen.

Obwohl "moralische Maschinen" in den USA, in Kanada und in Australien, um nur ein paar
der führenden Nationen zu nennen, viel diskutiert und bereits konzipiert und implementiert
werden, sind manche Menschen - darunter auch Experten für Künstliche Intelligenz,
Ingenieure, Informatiker und Ethiker - grundsätzlich skeptisch. Die Skepsis dürfte teilweise
übertrieben sein. Einerseits überschätzen Kritiker vielleicht die Komplexität menschlicher
Moral, andererseits unterschätzen sie vielleicht die Möglichkeiten, die Komplexität
maschineller Moral zu reduzieren. Es ist nicht besonders schwer, einfache moralische
Maschinen zu bauen. Als solche werden hier (teil-)autonome Systeme verstanden, die in den
Standardsituationen, für die sie entwickelt wurden, einige wenige, einfache Regeln befolgen
beziehungsweise mit Hilfe von Beobachtungen und von Fällen, die sie gespeichert haben,
die richtige Entscheidung treffen und damit im Ergebnis moralisch (oder moralisch gut)
handeln.

Das "Moralisieren" der Maschinen
Das Moralisieren der Maschinen ist in vielen Bereichen möglich. Hier einige Beispiele, die
teilweise auch für IT-Unternehmen relevant sind und mehrheitlich mit dem Leben oder dem
Tod von Menschen und Tieren zu tun haben:

© by Huron AG, Zürich. Jede Reproduktion und / oder Veröffentlichung nur mit schriftlicher
Genehmigung des Verlags.                                                                     1
•Chatbots (oft auch Chatterbots genannt) informieren auf Websites über Produkte und
 Dienstleistungen und dienen der Unterhaltung und Kundenbindung. Vor diesem Hintergrund
 wird verständlich, dass man bei ihnen persönliche und soziale Aspekte berücksichtigt. Sie
 sind meist so gestaltet, dass sie niemanden irritieren und diskriminieren sollten. Wenn ein
 User einen Selbstmord ankündigt, reagiert die Mehrzahl aber inadäquat. Ein "guter" Bot in
 dieser Hinsicht ist SGT STAR der U.S. Army, der in einem solchen Fall eine amerikanische
 Notfallnummer nennt. Ein noch "besserer" Bot würde eine für das jeweilige Land passende
 Notfallnummer heraus- oder den Benutzer an eine Ansprechperson übergeben. Ein solches
 Verhalten lässt sich durch eine Erweiterung der Wissensbasis und die Verwendung der IP-
 Adresse erreichen.
•Serviceroboter wie Haushalts- und Gartenroboter sind in zahlreichen Ausführungen
 erhältlich und erleben einen wahren Boom. Ein gewöhnlicher Saugroboter verschlingt alles,
 was vor ihm und unter ihm ist. Dazu gehören nicht nur Staubflocken und Kekskrümel,
 sondern auch Spinnen und Käfer. Nach der Meinung vieler Menschen sollte man Tiere nicht
 einfach verletzen oder beseitigen. Man kann den Roboter mit Bilderkennung und
 Bewegungssensoren ausstatten und ihm beibringen, Lebewesen vor dem Tod zu bewahren.
 Auch Mähroboter kann man auf diese Weise verbessern, wobei allerdings ein Rasen ganz
 zu schweigen von einer Wiese eine relativ komplexe Umgebung ist.
•Private Drohnen sowie Unmanned Aerial Vehicles (UAV), die in der Landwirtschaft, von
 Unternehmen und von der Polizei zur Überwachung genutzt werden, verbreiten sich in der
 Schweiz immer mehr. Sie können, entsprechend aus- und aufgerüstet, Objekte fotografieren
 und filmen. Die meisten Menschen wollen nicht heimlich aufgenommen und in ihrer
 Privatsphäre beeinträchtigt werden, weder beim Sonnenbaden noch beim Wandern. Man
 kann die Drohnen mit einer Bilderkennung ergänzen, die mit der Aufnahmefunktion
 zusammenspielt, und sie eine Aufnahme von Gesichtern und Körpern verhindern lassen.
 Damit werden auch Nacktbilder vermieden, die im Internet kursieren und damit den Ruf von
 Menschen schädigen und sie psychisch verletzen.
•Selbstständig parkierende, bremsende und fahrende Autos letztere sind auch als
 Roboterautos bekannt und in verschiedenen Städten als Prototypen unterwegs nehmen
 dem Fahrer (man sollte besser "Beifahrer" sagen) bestimmte oder sogar sämtliche Aktionen
 im Strassenverkehr ab. Sie können dadurch Unfälle verhindern und so das Leben von
 Insassen, anderen Verkehrsteilnehmern und Tieren retten. Neue Nachtsichtgeräte und
 Bilderkennungssysteme, wie sie etwa im Mercedes der S-Klasse integriert sind, können
 bereits zwischen Menschen und Tieren unterscheiden und damit Prioritäten setzen, wenn
 sie dazu befähigt werden. Assistenzsysteme solcher Art erlauben schon heute moralische
 Maschinen im weitesten Sinne.
•Windkraftanlagen produzieren in Deutschland, in Spanien, in Griechenland und in anderen
 Ländern einen nicht unerheblichen Teil des benötigten Stroms. Es handelt sich oft um hohe
 Masten mit riesigen Rotoren. Immer wieder kommt es zu Kollisionen mit Vögeln und
 Fledermäusen. In Kombination mit Bewegungsmeldern und Mustererkennungssystemen
 wären die Maschinen in der Lage, sich bei Bedarf selbst abzustellen. Sie könnten sich in

© by Huron AG, Zürich. Jede Reproduktion und / oder Veröffentlichung nur mit schriftlicher
Genehmigung des Verlags.                                                                     2
Windparks gegenseitig melden, wohin sich Schwärme oder Einzeltiere bewegen. Mit Hilfe
 von Sensoren wäre es möglich, im weiteren Umfeld ein Frühwarnsystem aufzubauen, das
 die Tiere unter Umständen über Töne und Lichtreize dazu bringen könnte, das Weite zu
 suchen.
•3D-Drucker, die vor wenigen Jahren im Massenmarkt angelangt sind, erlauben das
 "Ausdrucken" von Gegenständen aller Art. Typische verwendete Materialien sind Kunststoff,
 Metall oder Gips. Bereits mehrmals ist es gelungen, Waffen aus Kunststoff zu produzieren,
 mit denen man mehrere Schüsse abfeuern kann, bevor sie kaputtgehen. Inzwischen wurde
 sogar eine funktionstüchtige Pistole aus Metall ausgedruckt. 3D-Drucker, die die Dateien
 analysieren und etwas über Form und Funktion des geplanten Objekts herausfinden,
 könnten die Herstellung von Pistolen und Bauteilen von Bomben verhindern.
Chancen und Risiken einfacher moralischer Maschinen
Diese Beispiele verdeutlichen, obwohl sie nur grob umrissen werden konnten, verschiedene
Merkmale und Chancen einfacher moralischer Maschinen:
•Die vorhandenen und denkbaren Methoden verbessern die (teil-)autonomen Systeme ganz
 offensichtlich. Sie respektieren und retten Leben, sie beschränken die Potenziale der
 Maschinen, ohne dass deren Autonomie aufgegeben wird. Oder die Maschinen holen Hilfe
 von einem Menschen, wenn sie sozusagen mit ihrer Moral am Ende sind.
•Die Entwicklung von einfachen moralischen Maschinen ist mit den heute verfügbaren
 technischen Mitteln durchaus im Rahmen des Möglichen. In mehreren Fällen wären
 lediglich zwei, drei zusammenspielende Komponenten zu integrieren. In manchen kann man
 bereits von Keimzellen einer maschinellen Moral sprechen.
•Bei den skizzierten Beispielen sind kaum moralische Dilemmas zu erkennen. Zahlreiche
 Menschen wären mit den Entscheidungen einverstanden und würden genauso oder ähnlich
 verfahren.
•Der Marktwert der Maschinen und die Kaufanreize können erhöht, die Anliegen der Kunden
 miteinbezogen werden. Man appelliert nicht nur mit Bio- und Fair-Trade-Produkten, sondern
 auch mit moralisch optimierten Werkzeugen und Robotern an das Gewissen.
Eine Win-win-win-Situation offenbar, für Tiere, Menschen und Maschinen. Aber es sind
ebenso Probleme und Risiken auf unterschiedlichen Ebenen auszumachen:
•Die einzubauenden Komponenten sind im Einzelfall nicht ganz günstig, wobei sie im
 Zusammenhang mit Luxus- und Investitionsgütern zu sehen sind, die man sich etwas
 kosten beziehungsweise auf die sich nicht verzichten lässt.
•Wenn die Maschine Aufgaben an Personen und Einrichtungen delegiert wie bei der
 Kommunikation mit dem Chatbot , könnte dies als Eingriff in die Privatsphäre und, obwohl
 sich der Mensch zuerst mit einer Maschine unterhält, als "Vertrauensbruch" verstanden
 werden.
•Das Sammeln und Auswerten von Daten und Informationen, etwa von IP-Adressen und
 Aussagen des Benutzers, erzeugt neue Herausforderungen, vor allem im datenrechtlichen
 und informationsethischen Bereich.

© by Huron AG, Zürich. Jede Reproduktion und / oder Veröffentlichung nur mit schriftlicher
Genehmigung des Verlags.                                                                     3
•Auch wenige moralische Dilemmas können für viel Aufregung sorgen. Wenn Autos nur für
  Menschen eine Vollbremsung hinlegen, aber nicht für Hasen und Füchse, wird das
  Tierfreunde nicht zufriedenstellen. Sie wünschen sich eher, dass das Auto denkt: Ich
  bremse auch für Tiere.
•Die Autonomie von Maschinen bedeutet oft den Verlust der Autonomie von Menschen.
  Diese werden entmachtet und fühlen sich entmündigt. Der Roboter wird, wie in etlichen
  Science-Fictions, zum Konkurrenten und Feind.
•Nicht jedes Unternehmen und nicht jeder Benutzer will, dass die Maschine in ihre
  Schranken gewiesen wird. Diese könnte an Potenz und Akzeptanz und in der Folge an Wert
  verlieren und vom Markt verschwinden.
•Ein gut gemeintes Innehalten der Maschine könnte, wie bei den Windkraftanlagen, einen
  hohen Produktivitätsverlust bedeuten und hohe Kosten verursachen, genauso wie eine gut
  gemeinte Blitzaktion. Zudem könnte es Betriebsstörungen und Kettenreaktionen geben.
Eine technische und moralische Evolution
Natürlich sind Sicherheitseinrichtungen in diesem Sinne würden manche die zusätzlichen
Komponenten deuten wollen bei Maschinen nichts Ungewöhnliches und für Unternehmen
nichts Unbekanntes. Allerdings geht es in diesem Artikel um (teil-)autonome, teils intelligente
Systeme, um ihre fundierten Entscheidungen und ihre adäquaten (Sprech-)Akte. Es geht
weder um eine Säge, die bei einem Widerstand blockiert, noch um eine Tür, die sich bei
einem Widerstand öffnet (was nicht ausschliesst, dass man Säge und Tür "moralisieren"
könnte). Sondern um folgenreiche Aussagen und Handlungen, um Menschen und Tiere, um
Leben und Tod. Dass die einfachen moralischen Maschinen so problemlos funktionieren,
liegt freilich an ihrem klar definierten Aufgabenbereich und der übersichtlichen Situation.

Auf der ganzen Welt wird an moralischen Systemen gebaut. Auch in der Schweiz gibt es
erste Anstrengungen. Ein Beispiel ist der Goodbot, der seit Sommer 2013 in einem an der
Hochschule für Wirtschaft FHNW angesiedelten studentischen (vom Verfasser initiierten und
betreuten) Projekt entwickelt wird. Es handelt sich um einen Chatbot, der auf Aussagen und
Fragen mit moralischen Implikationen in adäquater Weise reagiert beziehungsweise
antwortet. Die modifizierte Maschine soll auf Websites von Unternehmen und Organisationen
eingesetzt werden können. In Bezug auf moralische Roboterautos ist mit einem baldigen
Durchbruch zu rechnen. Ein PKW kann sich in bestimmten Situationen bereits selbstständig
entscheiden. Es ist nun die Frage, wie er sich in moralisch relevanten Situationen
entscheiden soll, und wie er verfährt, wenn sich Dilemmas ergeben. Jedes (teil-)autonome
System steht eines Tages vor der gleichen Herausforderung. Es kann gut sein und bleiben
oder es kann besser werden, als Teil einer technischen und moralischen Evolution. (Oliver
Bendel)

Über den Autor
Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker und leitete
technische und wissenschaftliche Einrichtungen an Hochschulen. Heute lehrt und forscht er

© by Huron AG, Zürich. Jede Reproduktion und / oder Veröffentlichung nur mit schriftlicher
Genehmigung des Verlags.                                                                     4
als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft in Brugg und Olten
(Fachhochschule Nordwestschweiz FHNW), mit den Schwerpunkten Wissensmanagement,
Social Media, Mobile Business, Informationsethik und Maschinenethik, und lebt als freier
Schriftsteller in Zürich. Weitere Informationen: www.oliverbendel.net,
www.informationsethik.net und www.maschinenethik.net.

Mehr zu diesem Thema:

Die Moral der Maschinen

© by Huron AG, Zürich. Jede Reproduktion und / oder Veröffentlichung nur mit schriftlicher
Genehmigung des Verlags.                                                                     5
Sie können auch lesen