KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...

Die Seite wird erstellt Hortensia-Angelika Metzger
 
WEITER LESEN
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
KYBERNETIK UND
DIE INTELLIGENZ VERTEILTER SYSTEME

NORDRHEIN-WESTFALEN
AUF DEM WEG ZUM
DIGITALEN INDUSTRIELAND
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
IKT.NRW
SCHRIFTENREIHE

Die Studie "Kybernetik und die Intelligenz verteilter Systeme" erläutert die Entwicklung,
die Herausforderungen und die Potentiale der kybernetischen Idee für dezentrale
Steuerungsmodelle von Cyber Physical Systems und 4.0-Paradigmen.

Autorin
Univ.-Prof. Dr. rer. nat. Sabina Jeschke

Mit Dank an Dr. Alicia Dröge, Dr. Ruth Horn, Alexander an Haack, Erhard Zorn, Dr.-Ing.
Tobias Meisen, Dr.-Ing. Daniel Ewert, Dr. Frank Hees, Philipp Ennen, Prof. Christian
Brecher, Prof. Gerhard Lakemayer, Prof. Rolf Rossaint, Prof. Christopher Schlick.

Kontakt
Univ.-Prof. Dr. rer. nat. Sabina Jeschke
Direktorin des Institutsclusters IMA/ZLW & IfU
Prodekanin der Fakultät für Maschinenwesen
RWTH Aachen University
Dennewartstr. 27
62068 Aachen
sabina.jeschke@ieee.org

Hintergrund
Diese Studie ist Teil der IKT.NRW Schriftenreihe "NRW auf dem Weg zum digitalen
Industrieland". Die Beiträge der Schriftenreihe ergänzen die unter dem gleichnamigen
Titel erschienene IKT.NRW Roadmap 2020 – entweder aus der Perspektive einer IKT-
Basistechnologie oder einer der NRW-Schlüsselbranchen.

Herausgeber
Clustermanagement IKT.NRW
V. i. S. d. P. Monika Gatzke
c/o SiKoM – Institut für Systemforschung der Informations-,
Kommunikations- und Medientechnologie
Bergische Universität Wuppertal
Rainer-Gruenter-Str. 21
42119 Wuppertal

Wuppertal, Dezember 2014

                                                                                            2
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
INHALT

1.   Hintergrund                                                                 4
2.   Kybernetik                                                                  7
     2.1 Ein historischer Exkurs                                                 7
     2.2 Die zentralen Elemente der Kybernetik                                   9
3.   Begriffsklärungen im Feld der verteilten intelligenten Systeme             11
     3.1 Verteilte Systeme                                                      11
     3.2 Internet of Things und Cyber Physical Systems                          13
     3.3 Künstliche Intelligenz: von „GOFAI“ zum Konnektivismus                 14
     3.4 Embodiment-Theorie                                                     16
     3.5 Der Intelligenzbegriff – eine pragmatische Annäherung                  16
4.   Auf dem Weg zu einer dezentralen Automatisierungstechnik                   18
     4.1 Zum Stand der Automatisierungstechnik heute                            18
     4.2 Automatisierungstechnik der Zukunft                                    19
     4.3 Modellierungen dezentraler Systeme durch Multiagenten                  22
     4.4 Architekturen für dezentrale Steuerungen                               25
           4.4.1    Watsons probabilistische DeepQA Architektur                 25
           4.4.2    Logistik 4.0: Beispiel einer hybriden 3-Layer-Architektur   27
           4.4.3    Kognitive Architekturen                                     29
     4.5 Transparenz in Systemen dezentraler Steuerung                          32
5.   Perspektiven – Innovationspotentiale und Einsatzgebiete                    36
     5.1 Vernetzte Automatisierungstechnik in der Industrie                     36
           5.1.1    Losgrößen und individualisierte Fertigung                   37
           5.1.2    Die Revolution des Ramp-Up Prozesses                        38
           5.1.3    „Personalisierung“ der Smart Objects                        39
           5.1.4    Dezentrale Steuerungen in der Mensch-Maschine-Kooperation   41
           5.1.5    Von Smart Factories und Fabrics of the Future               43
     5.2 Vernetzte Automatisierungstechnik erobert den Alltag                   44
           5.2.1    Vehicle2infrastructure Communication                        46
           5.2.2    Smart Grid, Smart Buildings, Smart Metering                 48
           5.2.3    eHealth                                                     50
           5.2.4    Neue Mensch-Maschine-Schnittstellen                         55
6.   Zusammenfassung und Fazit                                                  59
7.   Literatur                                                                  65

                                                                                3
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
1.      HINTERGRUND

Zusammen mit einigen bemerkenswerten Durchbrüchen in den
vergangenen drei Jahren, wie dem Jeopardy-spielenden IBM-
Supercomputer Watson oder dem autonomen Google Car, stehen wir vor
einer neuen Ära in der Künstlichen Intelligenz. Eine besondere Rolle
nimmt dabei die „Verteilte Künstliche Intelligenz“ ein, Cyber Physical
Systems, Internet of Things und die 4.0-Metapher “boomen”.

Die Bedeutung dieser Konzepte geht in vielfacher Hinsicht weit über die
Entwicklung einer „normalen“ technischen Neuerung hinaus. Ein Aspekt
lässt dabei besonders aufhorchen: Hier entsteht eine neuartige Form
einer „Intelligenz“, einer nämlich, die auf der Vielzahl, der räumlichen
Verteiltheit und der Heterogenität ihrer Subkomponenten basiert – eine   Abb. 1: 4.0 – Systeme verteilter Intelligenz
„Intelligenz verteilter Systeme“. Diese Intelligenz muss verstanden                   erobern das Feld;
                                                                                   Bild © OPC Foundation
werden – schon allein weil die hier entstehenden Systeme unmittelbare
und umfassende Auswirkungen auf unseren Alltag haben und in der
Zukunft noch viel mehr haben werden, wie an Beispielen wie smart grids in der
Energietechnik, kooperativen Robotern in der Produktionstechnik, vernetzten
medizinischen Systemen zur Früherkennung, oder der car2Infrastructur Communication
im Verkehr sofort erkennbar wird.

Ist nun das Konzept einer „verteilten Intelligenz“ tatsächlich neu? Schließlich ist auch bei
Menschen, ebenso bei anderen Säugetieren, der „Sitz“ der Intelligenz nicht ausschließlich
das Gehirn selbst: Intelligente Vorverarbeitungen finden in „biologischen Sensoren“, den

                                                                                                                  4
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
Sinnesorganen, statt. Entsprechendes gilt für „biologische Aktuatoren“, Muskeln, die
durch zuständige Bereiche im Rückenmark gesteuert werden. Erst diese
Vorverarbeitungen ermöglichen hochqualifizierte und vor allem „echtzeitfähige“
Reaktionen: Ohne sie wären wir nicht einmal in der Lage, eine Fliege zu erlegen, gar nicht
zu reden von einer Flucht vor einem Säbelzahntiger! Auch hier ist die Intelligenz also zu
einem gewissen Grade – wenn auch in anderer Weise – verteilt. Als Tendenz zeichnet sich
in der Tierwelt ab, dass hochentwickelte Formen von Intelligenz gerade mit einer höheren
Verteiltheit ihrer „intelligenz-erzeugenden Komponenten“ einhergehen. Die Vermutung
liegt daher nahe, dass – wenngleich nicht ausnahmslos – zunehmende Verteiltheit nicht
nur zu Intelligenz beiträgt, sondern möglicherweise sogar eine Voraussetzung einer
hochentwickelten Intelligenz sein könnte.

Tatsächlich ist nicht die Verteiltheit an sich „das Neuartige“ im „Zoo der Systeme“. Das
Neue liegt zum einen in der Art der Verteilung, also darin, dass Systeme wie Cyber Physical
Systems (kurz: CPS) weder in einem strikten noch in einem schwachen
Sinn „lokalisiert“ sind. Während ein Mensch, ein Tier, ein einzelner
Roboter oder ein isolierter Computer in erster Näherung als eine
„lokalisierte Entität“ angenommen werden können, mit „kleiner“
Ausdehnung und einem entsprechend beschränkten Wahrnehmungs-
und Wirkungsradius also, ist ein Cyber Physical System räumlich nicht
beschränkt, sondern kann aus Komponenten bestehen, die sich im
Extremfall über die gesamte Welt verteilen. Ein solches System kann
Informationen von weit entfernten Orten – bis auf physikalisch bedingte
Signalübertragungzeiten – synchron zusammenführen, und ebenso an all
diesen Orten mit seinen global agierenden Entitäten gleichzeitig fast
synchron mit der Umwelt interagieren.                                                Abb. 2: Verteilung der intelligenz
                                                                                     bei Menschen auf Gehirn, Sinnesorgane und
Die zweite wesentliche Neuerung betrifft Gestalt und Wandelbarkeit
                                                                                Aktuatoren; Bild © M. Malcher Aachen
solcher Systeme: Während Mensch und Tier i.d.R. aus einer festen
Anzahl von Komponenten, etwa Gliedmaßen, Sinnesorganen etc., bestehen, induziert die
Perspektive des Internet of Things Konstrukte hochgradiger Dynamik und Variabilität: Ihre
mit einer Teilautonomie ausgestatteten Komponenten bilden eine Art „Community“,
deren Mitglieder „kommen und gehen“ wie sie wollen bzw. wie es die Gegebenheiten
erlauben. Eine Art zentrale „Zugangs- und Anwesenheitskontrolle“ kann zwar technisch
realisiert werden, ist aber nicht unmittelbarer Bestandteil des Konzepts. Vorgesehen ist
hier zunächst nur eine zentrale Kenntnis über die Mitgliederstruktur zu jedem festen
Zeitpunkt, eine Art „Anwesenheitsprotokoll“. Darüber hinaus können einzelne
Komponenten gleichzeitig zu mehreren, also verschiedenen Cyber Physical Systems
gehören! – Intelligente Cyber Physical Systems haben damit Fähigkeiten der
„Eigengestaltung“ und darauf basierender Optimierung in einem bis dato in der Technik
unbekannten Maße.

Nach der Embodiment-Theorie entsteht Intelligenz aus dem Wechselspiel zwischen dem
Körper und seiner Umwelt. Nicht nur setzt damit die Ausbildung von Intelligenz die
grundsätzliche Existenz eines Körpers voraus, – die Robotik hat durch die Embodiment-
Theorie innerhalb der KI einen enormen Schub erfahren – mehr noch: Die Ausbildung der

                                                                                                                          5
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
Intelligenz hängt von der konkreten Gestalt eines Körpers ab, weil unterschiedlich
gestaltete Körper unterschiedliche physikalische Interaktion erfahren. Wenn die
Embodiment-Theorie sich als zutreffend erweist – und dafür spricht vieles: Was für ein
Intelligenzbegriff entsteht dann bei einem „Wesen“ mit praktisch unbegrenzter
Reichweite und dynamischem Austausch seiner Komponenten? Was bedeutet der
Intelligenz-Begriff in einem Cyber Physical System, und was für Anwendungen sind auf
dieser Basis möglich?

Die vorliegende Studie ordnet sich bewusst zwischen zwei Polen ein: Der vordere Teil ist
dominiert durch eine Einführung in die kybernetische Denkweise und die Grundlagen von
Theorie und Praxis verteilter intelligenter Systeme. Das Verständnis dieser Konzepte und
Modelle stellt eine zentrale Hilfe für die anstehende
Weiterentwicklungen im Kontext einer Industrie 4.0 dar. Der
weitere Teil ist eher in das Modell zukunftsorientierter Studien
einzuordnen, die Perspektiven auf Handlungsoptionen eröffnen.
Als Zielgruppe steht hier die Deutsche Wirtschaft und ganz
besonders der Kompetenzraum NRW im Vordergrund.

                                                                              Abb. 3: Körper eines 4.0-„Wesens“?
                                                                                  Bild © M. Malcher Aachen

                                                                                                                   6
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
2.     KYBERNETIK

2.1 Ein historischer Exkurs
Der Begriff „Kybernetik“ leitet sich ab vom altgr. Wort kybernétes (etwa: steuermännisch,
Steuermannskunst) und wurde um 1940 begründet. Als Vater der Disziplin gilt der
bekannte amerikanische Mathematiker Norbert Wiener, der Lehrstühle zunächst am
MIT Boston/USA und später in Cambridge/UK innehatte. 1948 erschien sein
berühmtes Buch “Cybernetics or Control and Communication in the Animal and the
Machine” (deutsche Ausgabe: Kybernetik. Regelung und Nachrichtenübertragung im
Lebewesen und in der Maschine) [1], ein Titel der gleichsam als eine erste Definition
dieses neuen Konzeptes verstanden werden kann. Im gleichen Jahr erschien in der
Zeitschrift Scientific American ein grundlegender Übersichtsartikel zur Kybernetik [2].
Die Macy-Konferenzen „Circular causal, and feedback mechanisms in biological and
social systems“ (1946-1953, [2]) wirkten bei der Weiterentwicklung des Konzepts als
interdisziplinärer Katalysator.

Die Kybernetik erforscht die grundlegenden Konzepte zur Steuerung und Regelung
                                                                                            Abb. 4: Norbert Wiener, Vater
komplexer, hybrider Systeme. Es ist für den Leser entscheidend, dieses Konzept vor
                                                                                                   der Kybernetik;
ihrem historischen Hintergrund zu reflektieren, um die Parallelen für die heutigen             © laroucheplanet.info
Entwicklungen zu verstehen: Eingeleitet durch die zweite industrielle Revolution zur
Jahrhundertwende erlebte die Automatisierungstechnik in den Dreißiger- und
Vierzigerjahren des 20. Jahrhunderts eine stürmische Entwicklung. Auf der Theorieseite
lag die Wurzel des Erfolgs in dem umfassenden Leistungszuwachs der Steuer- und

                                                                                                                   7
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
Regelungstechnik, die sich seit den 1920er Jahren rasant entwickelte. Die Leistung von
Wiener und Kollegen war damit weniger, sich mit der Steuerung und Regelung von
Systemen zu befassen – denn das lag auf der Hand. Die neue Idee der jungen Disziplin war
vielmehr, dass hier keinerlei Voraussetzung an die Art der Systeme gemacht wurden, die
da geregelt werden sollten – dass es sich um Maschinen, Systeme von Maschinen, aber
auch um Menschen, Organisationen, biologische Systeme, ökologische Systeme oder
Mischformen der genannten handeln konnte. Die Kybernetik war der erste Versuch, die
Erkenntnisgewinne der klassischen Steuer- und Regelungstechnik auf beliebige,
heterogene sowie „nicht-nur“ technische Systeme zu übertragen.

Damit waren die Ziele der Kybernetik zweierlei: Gesucht wurde zum einen eine
ganzheitliche, auf Steuerungs- und Regelungsmechanismen basierende Beschreibung
solcher komplexen Gesamtsysteme, mit qualitativen und quantitativen Komponenten.
Zum zweiten sollte diese Theorie die Basis einer disziplinübergreifenden neuen
„Einheitswissenschaft“ bilden, d.h. sehr unterschiedliche Bereiche mit einer einzigen
Theorie beschreiben können, und damit in der Konsequenz auch Systeme völlig
unterschiedlicher Herkunft in ihrem Verhalten vergleichbar machen.

Der neue Ansatz wurde schnell von Wissenschaftlern sehr unterschiedlicher Disziplinen
aufgegriffen, konzeptionell erweitert und auf verschiedenste neue Anwendungsfelder
übertragen. Insbesondere die berühmten
„Macy-Konferenzen“ (1946-1953, USA) trugen
umfassend zur Vernetzung der führenden
Köpfe verschiedener Disziplinen bei [2].

Die Kybernetik durchlief eine wechselvolle
Geschichte, von vielen „Aufs und Abs“
getrieben [3]: Zwar ließ die grundsätzliche Idee
kaum Raum für Zweifel. Das Statement von
Wolfgang Wieser 1963, zum 15. Jahrestag des
Erscheinens von Norbert Wieners Cybernetics
fängt die „Hype Stimmung“ perfekt ein:                                      Abb. 5: Macy-Konferenzen,
„Kybernetik ist zu mehr als einem                              zentraler Treiber einer multidisziplinären Kybernetik
wissenschaftlichen oder technologischen
Begriff geworden: Sie ist eine Idee, ein Programm, ein Schlagwort – einer jener
Kondensationspunkte im intellektuellen Raum, an dem sich der gestaltlose Nebel von
Einzelwissen und Spekulation hoffnungsvoll niederschlägt.“ [4]

Die konkreten Ergebnisse jedoch konnten nicht mit den Erwartungen Schritt halten.
Insbesondere wurde die fehlende Quantifizierbarkeit der Modelle zu einem zentralen
Punkt der Wissenschaftskritik – eine Theorie, die über rein qualitative Aussagen nicht
hinauskommt, erfüllt nicht die Anforderungen einer naturwissenschaftlich dominierten
Weltsicht. Moderne Weiterentwicklungen etwa aus Teilen der System Dynamics-
Community [5], begründet von Jay W. Forrester [6] bereits in der Mitte der 1950er Jahre
an der Sloan School des MIT, setzten genau hier an, um die Theorie voranzutreiben.

                                                                                                                       8
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
Eine andere Kritik, der die Kybernetik stets ausgesetzt war, kommt aus den Geistes- und
Gesellschaftswissenschaften: Die Kybernetik fasst Menschen und Gesellschaften als
komplexe Mechanismen auf, die sich – ganz im Sinne einer Einheitstheorie – in ihrer
grundsätzlichen Modellierung nicht von Maschinen- oder Maschinensystemen
unterscheiden. „Nur wenn Menschen und Maschinen gleichermaßen auf digitaler Basis
arbeiten, wenn das Wissen vom Menschen und das Wissen von Computern kompatibel
gemacht werden können, ist auch die kybernetische Epistemologie selbst arbeitsfähig.“
schreibt dazu der Medientheoretiker Claus Pias [7]. Damit war die Kybernetik stets dem
Vorwurf der „Mechanisierung des Menschlichen“ ausgesetzt (ein paralleler Vorwurf traf
zeitgleich den Taylorismus). Die Kritiker legen einen grundsätzlichen Unterschied
zwischen den Menschen auf der einen Seite und Technik auf der anderen zu Grunde, der
Mensch als das kreative, bewusste und intelligente auffasst, dagegen die Maschine als
einfältig und bestenfalls in der Lage, standardisierte Prozeduren abzuarbeiten. Gerade mit
den extremen Leistungssteigerungen der künstlichen Intelligenz in den letzten zwei
Jahrzehnten wird jedoch deutlich, dass dieser Ansatz – jedenfalls in einer strikten Form –
eher von einem gewissen Bias als von der Realität getrieben ist.

Die Kybernetik gehört zu den Gründungsdisziplinen der modernen Informatik. Sie ist als
„Großvater“ des wichtigen Teilgebiets der KI, der künstlichen Intelligenz, zu betrachten,
und sie wird vielfach mit biologischen Konzepten wie der Schwarmintelligenz, der
Fähigkeit zur Selbstorganisation, der Autopoesis und der Bionik als Gebiet in Verbindung
gebracht. Auch Begriffe wie der Cyber Space, der Cyborg aus dem Science Fiction Genre
oder eben auch die Cyber Physical Systems tragen – nicht nur sprachlich – das Erbe der
Kybernetik in sich [3].

2.2 Die zentralen Elemente der Kybernetik
Die Kybernetik ist eine sogenannte Systemtheorie, sie ist sogar der prominenteste
Vertreter dieser Klasse von Erkenntnismodellen. Der Name ist Programm: Systemtheorien
versuchen, die Gesetzmäßigkeiten komplexer Systeme zu analysieren, zu modellieren und
damit das Systemverhalten grundsätzlich transparent und vorhersagbar zu machen. Ein
System ist dabei zusammengesetzt aus mehreren (bis hin zu sehr vielen) Subsystemen
oder Einzelelementen, die als Ganzes zusammenwirken, wodurch ein
Gesamtsystemverhalten entsteht. Systemtheorien brechen mit der Betrachtung isolierter
Objekte und stellen stattdessen die Betrachtung der Relationen zwischen Objekten
und/oder Subsystemen und ihre gegenseitigen Beeinflussungen in den Vordergrund.

Die Grundkonzeption der Kybernetik sind von einigen zentralen Elementen
gekennzeichnet:

       Komplexe Systeme: Die Kybernetik betrachtet Viel-Komponenten-Systeme als
        ihren Untersuchungsgegenstand. Diese Komponenten stehen i.d.R. in komplexen,
        nicht-linearen Wechselwirkungen, und sie können heterogenen Ursprungs sein.
        Die Kybernetik macht keine Einschränkung an die „Art“ der beteiligten
        Komponenten.

                                                                                             9
KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND - CPS.HUB ...
   Feedbackschleife [auch „Rückkopplungsschleife“]: Rückkoppelung beschreibt
    einen wichtigen Mechanismus der Regelungstechnik, bei dem das „Ergebnis“,
    also das Outputsignal, an die Eingangsgröße zurückgemeldet wird und dort
    modulierend (verstärkend oder abschwächend) rückwirken kann. An die Stelle
    geradlinig-kausaler Erklärungen treten damit zirkuläre Erklärungsansätze, die
    nicht auf einen umfassenden Forecast des Systemverhaltens zielen, sondern die
    Grundsätze des Systemverhaltens abbilden. Rückkopplungsschleifen mit
    Selbstregulationseigenschaften sind das kennzeichnende Merkmal der
    Funktionsweise natürlicher Systeme. Kybernetische Systeme werden durch
    multiple Feedbackschleifen beschrieben.

   Autopoiesis (altgriech., autos „selbst“, poiein „machen“): Autopoietische Sys-
    teme haben die Fähigkeit zu selbstständiger Reproduktion. Autopoietische Sys-
    teme sind in diesem Sinne „lebendig“, dabei aber nicht notwendigerweise biolo-
    gischer Natur. Stabile, langlebige Systeme sind durch Autopoiesis gekennzeich-
    net, die neue Fähigkeiten ausbilden kann, um sich geänderten Bedingungen
    anzupassen. Der Begriff wurde durch die Biologen Humberto Maturana und Fran-
    cisco Varela geformt.

   Dezentralität: Kybernetische Systeme sind durch eine
    weitgehend dezentrale Steuerung gekennzeichnet, die sich als
    natürliche Konsequenz des rückkopplungsgetriebenen Ansatzes
    ergibt. Die Folge ist ein weitgehend bottom-up induziertes
    Systemverhalten. Die Kybernetik postuliert damit eine
    prinzipielle Überlegenheit selbstorganisierter Prozesse (bottom-
    up) über zentralistischen top-down Prozessen.

   Emergenz (lat., emergere, etwa: auftauchen, entstehen):
    Kybernetische Systeme zeigen emergentes Verhalten, d.h. es
    kommt zu einer spontanen Herausbildung neuer Eigenschaften,
    Strukturen oder Verhaltensweisen eines Systems infolge des
    dezentralen Zusammenspiels seiner Komponenten, die die                    Abb. 6: Das Viable Systems Model nach
                                                                          Stafford Beer 1995; Bild © M. Malcher Aachen
    einzelnen Systemelemente nicht aufweisen. So kann etwa ein
    Schwarmverhalten von Fischen nur entstehen, wenn hinreichend
    viele Fische vorhanden sind – ein einzelner Fisch kann keinen Schwarm bilden.
    Emergenzeffektre sind i.d.R. „positiv“ für das betrachtetet System – zwar ist im
    Grundsatz auch negative Emergenzbildung möglich, das führt allerdings häufig
    zum Ableben des Systems und somit zum Verschwinden des Effekts und wird
    deshalb weniger beobachtet. – Emergenzbildung ist somit eine zentrale
    Grundlage für das Überleben „höherwertiger“, also besser angepasster Systeme
    an ihre Umgebung: Schwarmbildung bietet erhöhten Schutz vor Räubern, das
    „neue Verhalten“ führt also zu einer höheren Lösungsqualität als die Verfolgung
    reiner Einzelstrategien.

                                                                                                               10
3. BEGRIFFSKLÄRUNGEN IM FELD DER
VERTEILTEN INTELLIGENTEN SYSTEME

3.1 Verteilte Systeme
Unter einem verteilten System wird in der Informatik – basierend auf der Definition von
A. Tanenbaum [8] [9] – ein Zusammenschluss unabhängiger Computersysteme
verstanden. Nach außen repräsentieren sich diese als ein einziges System. Die beteiligten
Computersysteme können unterschiedlich repräsentiert sein: Es kann sich dabei einfach
nur um Prozessoren, um Blades in einem Rechenzentrum, um PCs oder Labtops, mobile
Systeme oder eingebettete Prozessoren handeln, um nur die
wesentlichen Klassen zu nennen. Zentrale Eigenschaft eines verteilten
Systems ist, dass es sich um autonome unabhängige Einheiten handelt,
die über keinen gemeinsamen Speicher verfügen – was im Umkehrschluss
bedeutet,     dass    jede   Form     des    Datenaustauschs       durch
Kommunikationsprozesse zwischen den beteiligten Einheiten realisiert
werden muss. Während in der Vergangenheit mehrheitlich verteilte
Computerzusammenschlüsse         betrachtet    wurden,       etwa      in
Rechenzentren, gewinnen in der jüngeren Zeit insbesondere diejenigen
verteilten Systeme an Bedeutung, die „embodied“ sind und aktiv mit ihrer         Abb. 7: ein an Industrie 4.0 angelehntes
                                                                                             verteiltes System;
Umwelt interagieren, wie etwa ein Team kooperierender Roboter oder
                                                                                        Bild © M. Malcher Aachen
ein Schwarm autonomer Fahrzeuge.

                                                                                                                      11
Betrachtet man die Entwicklung der künstlichen Intelligenz in den letzten zwei Dekaden,
so wird der Einfluss des Paradigmas der „Verteilung“ in allen Bereichen überdeutlich:

Verteilte Systeme sind die treibende Kraft hinter heutigen Hochleistungsrechnern:

In den siebziger Jahren banden die ersten local-area networks wie das Ethernet Computer
zu ersten Clustern zusammen. Auf dieser Basis konnte eine vorher undenkbare
Rechenleistung erreicht werden, und das auf der Basis “üblicher” Geräte anstelle
monolithischer, teurer Großrechner mit „Einzelstückcharakter“. Schon bald stellten diese
Cluster die monolithischen Großrechner, die „Mainframes“, beim „number crunching“ in
den Schatten. Die Verteiltheit der Systeme führte zwangsläufig zu einem Schub in dem
Forschungsfeld der Parallelisierung von Algorithmen, um die entstehende Rechnerpower
überhaupt nutzen zu können.

Neuronale Netze zeigen ihr Potential:

Neuronale Netze sind grob dem Aufbau des Gehirns nachempfunden. Künstliche
Neuronen werden untereinander verknüft – ein verteiltes System also wiederum – und
sind in der Lage, nach der sogenannten Hebb’schen Lernregel [10] [11] zu lernen. Im
Gegensatz zur sequenziellen Abarbeitung klassischer
Programme verarbeitet ein neuronales Netz alle
eingehenden Inputs parallel und ist damit ungleich schneller,
auch skaliert es besser weil im Fall komplexerer Strukturen
einfach die Anzahl der beteiligten Neuronen erhöht wird,
anstatt den Algorithmus anpassen zu müssen. Etwa im
Bereich automatischer Mustererkennung – eine zentrale
Fähigkeit aller intelligenten Systeme – haben sie inzwischen             Abb. 8: Neuronale Netze – inspiriert vom
beeindruckende Ergebnisse. Die Theorie neuronaler Netze              biologischen Vorbild; Bild © M. Malcher Aachen
entstand bereits in den Vierzigerjahren, allerdings reichten
lange Zeit die Rechnerleistungen nicht aus, um die
Leistungsfähigkeit des Ansatzes zu beweisen. Neuronale Netze markieren den radikalen
Wechsel von der symbolischen zur subsymbolischen KI, der vielleicht wichtigste
Paradigmenwechsel der KI überhaupt (vergl. Kap. 3.4). Heute erleben neuronale Netze in
Form der Deep-Learning-Algorithmen (siehe Kap. 4.4), Kernelement der Big Data
Techniken, eine Blüte.

Das Internet ist die dominierende Kulturtechnik:

Das Internet ist die dominierende Kulturtechnik und gleichzeitig das größte verteilte
System, das die Menschheit jemals gestaltet hat. Mit seinen riesigen und heterogenen
Datenmengen, verteilt auf unzählige Server, repräsentiert das Internet einen völlig neuen
Typ eines komplexen Systems mit (teil-)autonomen Subsystemen. Hochskalierbare, weil
parallelisierte, Algorithmen wie z.B. Googles MapReduce [12] [13] führen zu
bemerkenswerten Ergebnissen. Die gesamte „Big Data“ Entwicklung ist – als Offspring der
Internettechnologie – aktuell dabei, Wissenschaftsmethodiken ebenso wie ganze
Wirtschaftszweige umzukrempeln.

                                                                                                                      12
Mit dem Konzept der Cyber Physical Systems entsteht ein neuer Typ verteilter Systeme:

Dieser Typ ist charakterisiert durch die Interaktion von Teilen seiner Komponenten
(Sensoren, Roboter usw.) mit der Umgebung (vergl. Kap. 1). CPS können als die
Weiterentwicklung eingebetteter Systeme [14] [15] verstanden werden, jedoch mit
erweiterten Funktionalitäten in Bezug auf Kommunikation und Kooperation. Sie bilden
eine Brücke zwischen der digitalen Computerwelt und der physikalischen Umwelt. Weil
das System über physische Erfahrungen und – jedenfalls in gewisser Weise – über einen
Körper verfügt, erfüllt es die zentralen Voraussetzungen für die Ausbildung von Intelligenz
nach der Embodiment-Theorie (vergl. Kap. 3.4).

Diese Liste ließe sich fortsetzen, insbesondere verdichten. Summarisch ergibt sich die
Erkenntnis, dass verteilte Computersysteme und verteilte Algorithmen aktuell zu einem
neuen Typ intelligenter Systeme führen, dessen primäre “Verhaltensmuster” durch einen
bottom-up Ansatz – dem Verhalten der Einzelkomponenten – und damit kybernetisch
geprägt sind. Und wenn auch von einem strikten Standpunkt aus die Entwicklung eine
kontinuierliche, und damit eine rein quantitative, ist – unsere Wahrnehmung ist doch
mehrheitlich eine andere: Weil diese neuen Strukturen völlig neue Szenarien
ermöglichen, wie z.B. autonome kooperierende Fahrzeuge, intelligente Energienetze, und
vieles mehr, ist die Veränderung in ihrer Konsequenz durchaus eine sprunghafte, und in
der Folge sowohl quantitative als auch qualitative.

3.2 Internet of Things und Cyber Physical Systems
Der Begriff des „Internet of Things” (kurz: IoT) entstand 1999 durch Kevin Ashton (Auto-
ID Center des MIT, USA), der Begriff der „Cyber Physical Systems“ wurde 2006 durch Helen
Gill von den National Science Foundation NSF (der „amerikanischen DFG“) maßgeblich
geprägt. Im Kern handelt es sich bei ersterem um einen Verbund mehrheitlich technischer
Subkomponenten, die über eine internetbasierte Dateninfrastruktur miteinander
kommunizieren, bei letzterem um die Ausweitung des „Beteiligungskonzepts“ des
Internets: Teilnehmer sind nicht mehr ausschließlich Menschen, sondern auch „Dinge“ –
wie etwa die Sensorik eines Autos, Klimadatenstationen, Prozessdatenrechner der
Produktionstechnik und andere informationstragende und/oder mit der Umwelt
unmittelbar interagierende Systeme.

In beiden Konzepten entsteht ein „Graph“ aus Knoten und Kanten, ein verteiltes System
– bei dem die Knoten die Informationseinheiten repräsentieren, die Kanten die
Kommunikationswege. Die eine Sichtweise fokussiert auf die Komponenten, die zweite
auf das Netzwerk – in gegenseitiger vollständiger Anerkennung dessen, dass das eine
ohne das andere wenig nützlich wäre. Im Ergebnis bilden Cyber Physical Systems und
Internet of Things zwei Sichten auf dasselbe Phänomen, nämlich, wie es einer der
führenden Wissenschaftler von Bosch, Dr. Stefan Ferber, in seiner Keynote 2012 in
Wuxi/China zusammenfasste, „… the outlook of connecting 50 billions devices by 2015“.
„Connecting them with each other and with 6 billion people“, hätte er noch hinzufügen
können.

                                                                                              13
Interessant ist die unterschiedliche Konzeptualierung der Begriffe bei gleichzeitiger
Übereinstimmung ihrer Kernelemente: Beide Ansätze gehen von einem großen, verteilten
System von (Sub-)Systemen aus, die mit der Umgebung gekoppelt sind und mit dieser
Informationen austauschen. Das Internet fungiert als Informationsträger und
Protokolleebene, die Komponenten sind als eingebettete Systeme („embedded systems“)
realiziert. Die Perspektive des Internet of Things ist aus der Informatik getrieben, i.w. als
Erweiterung derjenigen Community die auch das Internet entworfen hat;
konsequenterweise steht hier die Netz- und Kommunikationsperspektive im
Vordergrund. Der Begriff des „Cyber-physical Systems” wurde von Beginn an stark
getrieben durch die Ingenieurwissenschaften - die Perspektive auf die
Einzelkomponenten, die dann miteinander kommunizieren, ist unverkennbar. Dieser
Unterschied in der Betrachtung wird gut sichtbar in den unterschiedlichen
Lösungsmethodiken beider Gruppen.

3.3 Künstliche Intelligenz: von „GOFAI“ zum
Konnektivismus
Die Geschichte der Künstlichen Intelligenz beginnt in den Fünfzigerjahren in der Bugwelle
immer leistungsstärkerer Rechner. Die Informatik begründet sich als eigenständiges
Fachgebiet (sie wurde zuvor innerhalb der Mathematik bzw. der Elektrotechnik oder
zwischen beiden Disziplinen angesiedelt), erste Studiengänge zur KI entstehen.
Zentrale Namen sind John McCarthy [16], Marvin Minsky [17], Claude Shannon [18],
Alan Turing [19], Hans Moravec [20]. Die Community überlappte sich erheblich mit
der der Kybernetik.

Die KI ist getrieben von zwei – einander i.w. ablösenden – zentralen Stömungen, die
verkürzt mit „top-down“ vs. „bottom-up“ KI beschrieben werden können:

„GOFAI“ – „top-down“ – symbolische KI:

    o In der frühen Phase der KI wurde angenommen, dass die Explizierung von
      Informationen die zentrale Grundlage für Intelligenz sei (die sog. „Physical
      Symbol System Hypothesis“). Das Ergebnis waren alle erdenkbaren Formen
      von Wissensrepräsentationen, also riesige Datenbanken als Wissensspeicher,
      detaillierte Taskbeschreibungen usw. – der Versuch, das menschliche Wissen
      inkl. Handlungsbeschreibungen so komplett wie möglich abzubilden.
                                                                                                Abb. 9: GOFAI – Nürnberger
    o Man spricht von der „symbolischen KI”, weil sie als Startpunkt das Wissen als
                                                                                                  Trichter für IT-Systeme;
      Symbole in den Speichersystemen des Computers anordnet, um dann auf                        Bild © M. Malcher Aachen
      diesen zu operieren. Der Ansatz wird heute, also retrospektiv und mit
      leichtem Augenzwinkern, als GOFAI – „good old-fashioned artificial intelligence“
      – bezeichnet.

Nachdem diese Programme zwar Achtungserfolge in sehr spezialisierten Anwendungen
erreichen konnten, den großen Zielen eines wirklich intelligenten Agierens auch in
unbekannten Handlungskonzepten aber kaum näher kamen, setzte ein umfangreiches
Umdenken ein:

                                                                                                                      14
Konnektivismus – „bottom-up“ – subsymbolische KI:

       Wissen sollte selbstständig und durch Erfahrungen erworben werden
        können. Voraussetzung dafür ist klarerweise die Fähigkeit, überhaupt
        Informationen aus der Umwelt wahrnehmen zu können, weshalb dieser
        Ansatz in natürlicher Weise die im Kap. 3.4 eingeführte Embodiment-
        Theorie einleitete. Das wesentliche Werkzeug der Methode sind die in Kap.
        3.1 eingeführten neuronalen Netze, die – vereinfacht – die Funktionsweise
        des menschlichen Gehirns nachahmen und ein wichtiges Konzept verteilter
        Systeme darstellen.

       Die Subsumption-Architektur [21] [22], eingeführt durch Rodney Brooks
        1986 (vergl. Kap. 3.4), wurde zur wichtigsten Architektur in der
        Robotikforschung, in der Informatik lösten hybride kognitive Architekturen          Abb. 10: Konnectivismus –
                                                                                                subsymbolische KI;
        wie Soar die zuvor rein symbolischen ab (vergl. Kap. 4.4.3).
                                                                                            Bild © M. Malcher Aachen
       In Abgrenzung zur symbolischen KI und wegen ihres „von unten
        kommenden“ Ansatzes wird dieser Ansatz als „subsymbolische KI“ bezeichnet.

Das folgende Beispiel [22] illustriert den Unterschied perfekt: um etwa den Buchstaben
W zu erkennen und von anderen Buchstaben unterscheiden zu können, würde ein top-
down Programm ein Testobjekt mit einer genauen Beschreibung des Buchstaben („vier
Linien, die paarweise an ihren Ecken mit den-und-den Winkeln miteinander verbunden
sind“) abgleichen. Ein bottom-up Programm hingegen würde anhand verschiedener Ws
deren Gemeinsamkeiten erlernen und das gelernte dann auf weitere Kandidaten
anwenden. Im Hintergrund steckt i.d.R. ein neuronales Netz, das auf den Buchstaben
trainiert wurde (vergl. Kap. 3.1). Im Kern steht einfach der Unterschied zwischen „Wissen
mitgeben“ vs. „Wissen erwerben“.

Das Beispiel macht auch deutlich dass der „Schulstreit“ der beiden Fraktionen an
manchen Stellen überzogen ist: Auch ein System, das erfahrungsgetrieben lernt, baut ja
eine Wissensbasis auf, auf der es dann operiert. In diesem Sinn schliessen sich
symbolische und subsymbolische KI nicht aus, die Herkunft des Wissens ist allerdings
unterschiedlich. Moderne Ansätze aus den Kognitionswissenschaften wie etwa D.
Kahnemann (Nobelpreis 2003, „Schnelles Denken langsames Denken“, [23] [24]) legen
vielmehr nahe, dass die optimale Struktur gerade in einer geschickten Kombination beider
Ansätze liegt. Genau dieser Ansatz wird auch in hybriden Softwarearchitekturen heute
aufgegriffen (vergl. Kap. 4.4.2).

Die Kybernetik boomt derzeit. Das Kapitel erklärt die Ursache: Die Kybernetik ist ohnehin
ein „Großvater“ der KI, denn ihr Ziel war die Beschreibung des Verhaltens komplexer
Systeme ohne weitere Aussage über die Herkunft der Systeme, was also
Computersysteme mitumfasst. Weil aber aktuell die gesamte Entwicklung in Richtung
einer verteilten dezentralen, koennektivistischen KI zeigt, wächst der – ohnehin
vorhandene – Einfluss der Kybernetik auf die modernen Entwicklungen der Informatik
gerade massiv: Der dezentrale Modellierungsansatz des Konnektivismus entspricht genau
dem Steuerungsparadigma der Kybernetik, das dezentral organiserte Internet als
Schlüsseltechnologie des Digitalisierungszeitalters ebenso.

                                                                                                                  15
3.4 Embodiment-Theorie
Die Embodiment-Theorie entstammt den Kognitionswissenschaften und wurde von Rod-
ney Brooks [24] [25] [26] um 1980 in das Gebiet der künstlichen Intelligenz eingebracht
und seitdem intensiv weiterentwickelt, unter anderem durch Hans Moravec („Moravec
Paradoxon“, [20]) und im deutschsprachigen Raum insbesondere durch Rolf Pfeiffer an
der ETH Zürich [27]. Die zentrale Aussage ist, dass die eigenständige Ausbildung von Intel-
ligenz zwingend die Existenz eines Körpers voraussetzt, der mit der Umwelt interagiert
und so erfahrungsgetrieben Erkenntnisse gewinnen kann. Intelligenz ist demnach
Ausdruck einer sensomotorische Koordination, soll heißen: Sensoren (Sinnesorgane)
und Aktuatoren (Motoren, Muskeln) werden durch interne Informationsverarbei-
tung koordiniert. Der Ansatz steht in diametralem Gegensatz zu klassischen Interpre-
tationen, die Intelligenz als einen Spezialfall einer rein internen Informationsverar-
beitung verstanden.

Eindrucksvolle jüngere Arbeiten kamen insbesondere von Josh Bongard 2006 [28],
der als erster die Lernfähigkeit von Robotern auf der Basis selbsterlernter
Körpermodelle demonstrierte [28]. Im Kern geht es darum, Roboter mit einem Kör-                Abb. 11: Embodiment – keine
perbewusstsein auszustatten, um ihn auf dieser Basis Bewegungen erlernen und op-                 Intelligenz ohne Körper;
timieren zu lassen. Der Bongard‘sche vierbeinige Spinnenroboter lernt auf diese                 Bild © M. Malcher Aachen
Weise zu laufen, und er erlernt einen Laufstil auf drei Beinen selbstständig wenn ein
Teil eines seiner Beine unbenutzbar ist.

Die Embodiment-Theorie kann als eine konsequente Interpretation oder Weiterführung
der Subsumption-Theorie (vergl. S. 15) gesehen werden: Die Existenz eines Körpers und
damit die Existenz von Sinnesorganen bzw. Sensoren ermöglicht genau die eigenständige
Erfahrung, die die Grundlage des Konnektivismus bildet.

3.5 Der Intelligenzbegriff – eine pragmatische
Annäherung
In den vorangegangenen Abschnitten wurde der Begriff der Intelligenz verwendet, ohne
die zugrundegelegte Definition zu thematisieren. Die zugehörige Debatte ist spannend
und soll in diesem Kapitel wenigstens ansatzweise vorgestellt werden – auch, um in den
nachfolgenden Kapiteln wenn nicht über eine Definition so doch über eine gewisse
definitorische Grundlage zu verfügen:

Die Konzeption dessen was Intelligenz ist – oder was sie nicht ist – füllt Bücher. Extreme
liegen zwischen dem sogenannten „Biological chauvinism” (verkürzt: „nur biologische
Gehirne sind intelligent“, angelehnt an C. Sagan in den sechziger Jahren) und dem „Liberal
functionalism” (verkürzt: „jedes verhaltensfähige System ist intelligent“; Jackendorf 1987,
Putnam 1967). Leicht überzeichnet ergibt sich eine Spanne von „nur Menschen sind
intelligent“ bis hin zu „auch ein Toaster ist schlau“. Während das erste Extrem
verhältnismäßig schnell zu den Akten gelegt werden kann, hat der zweite Ansatz
intellektuell einen gewissen Charme, weil er immerhin keine „willkürlichen Grenzen“
zieht. Jedoch: In einem Verständnis, dass „fast alles“ intelligent ist, lassen sich wiederum

                                                                                                                      16
kaum Schlussfolgerungen über Entstehung und Funktionsweise hochentwickelter
Intelligenz gewinnen.

Im Großen und Ganzen besteht heute durchaus eine gewisse Übereinstimmung in der
wissenschaftlichen Community, auch über die unterschiedlichen Fachdisziplinen und
Schulen hinweg, darüber, dass ein „intelligenter Agent“ typischerweise durch drei
zentrale Komponenten gekennzeichnet ist:

    1. die Fähigkeit zur Wahrnehmung der Umgebung und ihrer Veränderungen, also
       der Besitz sensorischer Komponenten zur Wahrnehmung externer Stimuli –
       SENSORIK

    2. die Fähigkeit zur Prozessverarbeitung, also das Prozessieren der externen Daten,
       deren Analyse und schließlich die Anpassung des eigenen Verhaltens an die
       Umwelt – KOGNITION

    3. die Fähigkeit zur Reaktion, also die Möglichkeit zur unmittelbaren physikalischen
       Interaktion mit der Umgebung – AKTUATORIK.

In einem so verhältnismäßig allgemeingehaltenen Ansatz der Intelligenz als einem
„Dreisprung“ im oben skizzierten Sinne haben etwa heutige Industrieroboter durchaus
eine gewisse Intelligenz (vergl. Kap. 4.1), jedenfalls die neuester Generationen. Dabei ist
klar, dass diese Intelligenz in keiner Weise einer humanen Intelligenz nahekommt – was
aber auch keineswegs zwingend ist.

                                                                                              17
4. AUF DEM WEG ZU EINER DEZENTRALEN
AUTOMATISIERUNGSTECHNIK

4.1 Zum Stand der Automatisierungstechnik heute
Die aktuelle Automatisierungstechnik ist von dem Paradigma einer zentralistischen
Steuerung gekennzeichnet. Master-Slave-Systeme sind das dominierende
Architekturmodell: Ein Zentralserver verteilt die Tasks, die abhängigen Einheiten erfüllen
ihre Aufgaben und berichten an den Zentralserver.

Solche Systeme sind weder „ziel-basiert“ noch agieren sie als soziales Team: sie wissen
kaum, wer sie sind, wer ihre Nachbarn sind, was ihre Aufgabe ist, wie sie
zusammenwirken, was die Konsequenzen ihrer Fehler sein können, welche alternativen
Strategien es geben könnte usw. Was wie eine kooperative Robotik wirkt – etwa bei einer
Vielzahl von Robotern entlang einer Automobilfertigungsstraße – ist i.d.R. heute lediglich
ein zeitlich synchrones Abarbeiten verschiedener Task durch die beteiligten Roboter.

Das Modell der zentralistischen Steuerung führt dazu, dass die gesamte Struktur
typischerweise mit Systemen desselben Herstellers realisiert wird: Heterogene
Strukturen, also Systeme unterschiedlicher Hersteller, würden voraussetzen dass die
Zentralserver die verschiedenen Kommunikationsprotokolle beherrschen, diese sind
jedoch sogar mehrheitlich proprietär. Diversität der Hardware stellt heute ein Problem
dar und wird tunlichst vermieden, gleichzeitig behindert genau das den Einsatz
alternativer Techniken oder die Einführung neuer.

                                                                                             18
Die Szene ist von einer hohen Standardisierungsphilosophie getrieben, allerdings nicht in
ganz wiederspruchsfreier Weise: Zwar ist die Feldbus-Ebene normiert, d.h. die
grundsätzliche Protokollebene zur Anbindung der Komponenten an den Server.
Hinsichtlich der Steuerungssprachen, die das eigentliche Verhalten der Systeme regeln,
dominieren jedoch derzeit noch die Hersteller-spezifischen, also nicht standardisierten
Sprachen.

Die Intelligenz heutiger Industrierobotik ist mehrheitlich beschränkt auf die – sehr präzise!
– Durchführung von Basisfunktionalitäten wie die Handhabung spezifischer Tools,
Navigation, Kollissionsvermeidung, und zentrale Prüffunktionen (z.B. die
integrierte Messung der Breite einer Schweißnaht). Wobei bereits das
letztgenannte keine durchgängige Eigenschaft mehr ist: So erkennen
etwa Roboter in einer Lackierstraße im Automobilbereich nicht, dass sie
aufgrund verstopfter Düsen ein ungleichmäßiges Lackbild produzieren.

Ein Ziel, das in den vergangenen Jahren bereits mehr und mehr erreicht
werden konnte, ist die Flexibilität der Anlagen in Bezug auf die Fertigung
mehrerer Varianten auf derselben Produktionslinie. Durch die
                                                                              Abb. 12: Klassische Industrierobotik -
Ausstattung der Systeme mit mehr Sensoriken und interner CPU (oder
                                                                              synchronisiert aber nicht kooperativ,
Zugang zu einer znetralen) wurde es möglich, dass Systeme die                   und ohne „Selbstwahrnehmung“;
angelieferten Teile bzw. den Zustand des halbfertigen Produkts korrekt             Bild © M. Malcher Aachen
identifizieren und auf dieser Basis die nächsten Schritte durchführen. So
beherrschen insbesondere in der hochentwickelten deutschen Automobilfertigung
moderne Produktionslinien heute selbstverständlich die Fertigung mehrerer Modelle.

4.2 Automatisierungstechnik der Zukunft
Intelligenz

Die Zukunft der Automatisierungstechnik liegt darin, die Einzelsysteme mit mehr
Intelligenz auszustatten, zunächst einmal vor allem, um Prozess- und Produktqualität zu
erhöhen. Die Systeme umfassen zunehmend mehr Sensoriken, die etwa
Abweichungen vom Zielzustand früh feststellen. Integrierte
Fehleranalysen können im Idealfall das Verhalten noch im laufenden
Prozess anpassen oder notfalls den Prozess abbrechen, um weiteren
Schaden zu verhindern (im Fall des im Vorkapitel beschriebenen
Lackschadens wird die komplette Karosserie – nach Fertigstellung der
Lackierung – entsorgt, sie ist für den Verkauf vollständig unbrauchbar).

Kooperative Robotik und dezentrale Steuerungslogiken

Darauf aufbauend setzen moderne Robotikkonzepte insbesondere bei          Abb. 13: Moderne Industrierobotik mit
dem Konzept einer „kooperativen Robotik“ an: Eine Vielzahl von                   intelligenter Kooperation
Forschungsprojekten in der Automatisierungstechnik adressiert die                  und Fehlererkennung;
Thematik, Roboter als Team agieren zu lassen. Der Hintergrund ist               Bild © M. Malcher Aachen

evident: Werden Menschen mit einer komplizierten Aufgabe
konfrontiert, so lösen sie sie in Teamarbeit, und dies mit möglichst heterogenen

                                                                                                                  19
Teammitgliedern, um die wechselseitigen Kompetenzen nutzen zu können. Genau dieser
Schritt steht in der Robotik derzeit an – die aktuellen Produktionssysteme umfassen zwar
oft viele Roboter, aber diese werden nur durch den Zentralserver zeitlich koordiniert, sie
agieren nicht als sich abstimmendes Team. Die neuen Erkenntnisse der Theorie verteilter
Systeme bilden die Grundlage für neue Modelle. Ein solcher Teamprozess unterliegt
notwendigerweise einem dezentralen Steuerungsparadigma.

Die Automatisierungstechnik der Zukunft steht vor dem gleichen Wandel, die der Bereich
des Höchstleistungsrechnens bereits hinter sich hat: Die weitgehende Ablösung
monolitischer Mainframes – es gibt Ausnahmen, gerade auch wieder in jüngster Zeit – zu
riesigen Blade-Clustern, auf denen parallele Algorithmen laufen, entspricht dem Wandel
weg von zentralistischen Master-Slave-Systemen hin zu dezentral organisierten
kooperativen Teams von Systemen.

Kommunikation auf der Basis natursprachlicher Analyse

Dazu sind aber erhebliche Steigerungen der „Intelligenz“ der heutigen Systeme
notwendig: Um kooperieren zu können, ist ein Verständnis der Gesamtaufgabe
notwendig, ein Verständnis der einzelnen Entität für seine Rolle im Team, ein Verständnis
der Rolle anderer, eine Übersicht über im Team verfügbare Kompetenzen, Spielregeln für
die „decision making processes“, die Fähigkeit zur gemeinsamen Entwicklung neuer
Arbeitsteilungen und Lösungsstrategien, die Fähigkeit der Kommunikation von
Intentionen gegenüber den anderen Teammitgliedern, …

Letzteres wird gerne unterschätzt: Naiv sollte man annehmen, dass sich
Roboter und andere technische Systeme aufgrund ihrer Möglichkeit
drahtloser, hochperformanter Funkverbindungen eher schneller und
unmittelbarer austauschen können sollten als Menschen. Das ist richtig
für den reinen Datenaustausch. Um aber zu „verstehen“ was die
Informationen des Senders inhaltlichen bedeuten bedarf es mehr. Nur
wenn die Systeme über „gleiche Protokolle“ verfügen, d.h. „gleiche
Sprachen“ sprechen, darf unmittelbar von einen gewissen „Verständnis“
ausgegangen werden. – Diese Verwendung standardisierter
Schnittstellen ist in heterogenen Teams – heterogen durch verschiedene
Hersteller – jedoch nicht gegeben. Hier müssen dann Ansätze aus einem           Abb. 14: Kommunikation in 4.0-Systemen:
ganz anderen Bereich der KI greifen, dem Bereich der Computer-                    computerlinguistische Interpretation
                                                                                     für den Informationsaustausch;
Linguistik, der in den vergangenen zwei Jahrzehnten beeindruckende
                                                                                        Bild © M. Malcher Aachen
Ergebnisse hervorgebracht hat.

Kommunikation ist ein wichtiges Teilgebiet der Intelligenz. Ähnlich wie als
Gesamttendenz für die KI in Kap. 3.3 beschrieben, kann Sprachverständnis grundsätzlich
auf zwei Weisen erreicht werden: Der top-down orientierte Ansatz sieht eine
gemeinsame, standardisierte Hochsprache vor, die dann alle Community-Mitglieder
bedienen. Der bottom-up Ansatz hingegen versucht, auf der Basis statistischer oder
regelbasierter Analysen einen beliebigen Inhalts selbstständig zu erkennen.

                                                                                                                    20
Natursprache statt Sprachstandards

Im Internet wurde der top-down Lösungsweg unter dem Titel „Semantic Web“ [29] um
2005 durch den Internetpioneer und heutigen Direktor des W3C (World Wide Web
Consortium) Tim Berners-Lee vorgeschlagen. Auf der Basis des RDF-Frameworks
(Resource Description Framework, [30]) sollten die Webinhalte in standardisierter Weise
semantisch angereichert werden. Es gehört zu den vielleicht besten Treppenwitzen der
Internet-Ära, dass dieser Ansatz überhaupt nicht funktioniert hat, wie Berners-Lee 2006
bekennen musste, dass dessen Ziel jedoch, nämlich die Daten des Internets durchsuchbar
zu machen, auszuwerten, Schlussfolgerungen zu ziehen usw., in exzellenter Weise
erreicht wurde!

Anstatt nämlich darauf zu setzen, dass alle Nutzer die Standards bedienen würden, – völlig
klar dass sie das nie tun würden – , kamen aus der Computerlinguistik völlig neue
Methoden des automatisierten Textverständnisses: Insbesondere der Bereich der
natursprachlichen Analyse NLP [31] konnte in den vergangenen zwei Dekaden eine
stürmische Erfolgsgeschichte verzeichnen. Die heutigen beeindruckenden Ergebnisse der
Big Data Technologie sind keinesfalls das Ergebnis des Einhaltens effizienter Standards,
sondern zeugen im Gegenteil von unserer Kompetenz, auch mit nicht-standardisierten
Inhalten umzugehen. Ein zentrales Element dieser Entwicklung sind die auf neuronalen
Netzen basierenden „Deep Learning Algorithmen“ (vergl. S. 12 und Kap. 4.4)

Biologische und Soziale Modelle als Vorbild

Hierin zeigt sich einmal mehr die immer stärker werdende Tendenz,
für effiziente technische Lösungen auf bestehende biologische
Modelle, teilweise sogar auf menschliche Vorgehensweisen,
zurückzugreifen, je „intelligenter“ die Systeme werden bzw. werden
sollen. Dieses Vorgehen wird in der Informatik als „Organic
Computing“ [32] [33] oder biologically-inspired computing bezeichnet
und kann in diesem Sinne auch auf die gesamte
Automatisierungstechnik übertragen werden. Denn auch die
menschliche Kommunikation schreibt nur „Eckdaten“ (Grammatik,
Vokabular) der Sprachverwendung vor – ein und derselbe
Zusammenhang kann aber auf unbegrenzt viele Weisen äquivalent                Abb. 15: „Organic Computing“, hier in Bezug
repräsentiert werden. Ambiguitäten sind eher die Regel als die               auf die Gestalt: Kofferfisch als Designvorlage
                                                                                für Autos mit großem Innenraum und
Ausnahme, und Ungenauigkeiten etwa durch nicht-muttersprachliche
                                                                                  optimalen Strömungseigenschaften
Schreiber werden trotzdem verstanden.                                               Bild © Fotomontage: SigNatur,
                                                                                         Fotos: DaimlerChrysler
Der Sieg des Offenheitsparadigmas

Die Übertragung der oben beschriebenen Geschichte des WWW auf die
Automatisierungstechnik jedenfalls bedeutet: Weder werden sich langfristig die
proprietären Herstellersprachen halten, noch werden alle Hersteller je eine gemeinsame
Standardsprache verwenden. Mehr und mehr Hersteller insbesondere aus China und
Korea drängen zudem auf den Markt. Offene Sprache – auf allen Ebenen, auf der der
Ansteuerung ebenso wie auf der des Informationsaustauschs unter den Systemen –

                                                                                                                         21
werden mehr und mehr zur Regel: Deutsche Hersteller beginnen bereits, ihre Systeme für
moderne, etwa objektorientierte Programmiersprachen wie z.B. Java zu öffnen, um so die
Durchlässigkeit der Systeme zu unterstützen. Dabei handelt es sich natürlich um einen
trade-off: Einerseits bedeutet die Öffnung der Systeme eine verstärkte Gefahr, dass
Kunden nicht mehr Komplettsysteme beziehen, sondern Systeme kombinieren, wobei
insbesondere auch Preisvorteile ausgenutzt werden können. Andererseits besteht bei
Nichtöffnung die Gefahr, vollständig vom Markt verdrängt zu werden, wenn andere
Systeme diese Fähigkeiten beherrschen. – Zusätzlich zur Öffnung der Systeme gegenüber
offenen Sprachstandards ist aber auch in der Robotik langfristig eine Entwicklung zu
erwarten, die vergleichbar zum WWW-Kommunikation stärker auf der Ebene der
natursprachlichen Analyse angeht als über Sprachstandardisierung überhaupt. Ein
Babelfish für Roboter!

4.3 Modellierungen dezentraler Systeme durch
Multiagenten
Zentrales Mittel der Modellierung dezentraler Systeme sind die sogenannten
Multiagentensysteme. Aufgrund des zunehmenden Interesses für dezentrale
Steuerungsansätze ist das Paradigma der multiagenten-basierten Modellierung und
Simulation (MABS) ein viel versprechendes und aktuell rasch wachsendes
Forschungsgebiet, das inzwischen auch industrielle Anwendungen findet:

Das Modell

Ein Multiagentensystem besteht immer aus einer Anzahl selbstständig agierender
Softwaremodule, die die verschiedenen Komponenten des Gesamtsystems vertreten.
So wird in einem Team von Robotern typischerweise jeder Roboter durch einen
eigenen Agenten vertreten. Agenten müssen jedoch nicht zwingend physikalisch
getrennte Einheiten repräsentieren, sondern können auch verschiedene Aufgaben
innerhalb eines komplexen Organismus übernehmen: Ein Mehr-Arm-Roboter könnte                   Abb. 16: Mehr-Arm-Roboter
                                                                                              Justin, DLR: die Arme verfügen
etwa jeden seiner Arme durch einen eigenen Agenten modellieren, was konzeptionell
                                                                                             über eigene, getrennte Logiken;
z.B. bei dem Halbhumanoiden Justin des DLR realisiert wird, der auf zwei nachgiebigen              Bild © DLR, CC-BY 3.0
Leichtbauarmen basiert [34]. Agenten werden auch in Systemen mit nicht-
körperbehafteten Entitäten eingesetzt, wie etwa zur
Modellierung des Zusammenspiels einer Gruppe von
Webservices, virtuellen Agenten also.

Funktionsweise

Die Agenten „vertreten“ eine Entität oder eine bestimmte
Aufgabe in dem Gesamtsystem. Sie handeln autonom
miteinander die Lösung aus, typischerweise „ohne
Masterbrain“.         Sie      haben        die      Fähigkeit,
Umgebungsinformationen aufzunehmen und damit in einer                    Abb. 17: Team Humanoiden modelliert als
sich verändernden Umgebung zu agieren [35]. Dabei haben                Multiagentensystem, RoboCup Standard League
sie stets eine lokale Perspektive, d.h. kein Agent hat die volle                  Bild © Röfer et al. 2012

                                                                                                                     22
Systemübersicht. Der Ansatz geht davon aus, dass in Systemen hoher Komplexität und
einer Vielzahl dynamischer Veränderungen eine globale Systemkenntnis weder möglich
noch sinnvoll ist – stattdessen müssen die Träger der lokalen Informationen miteinander
kommunizieren und in Verhandlungen treten. In der Regel liegt kein gemeinsamer
Speicher der Einzelentitäten vor.

Die einzelnen Agenten nehmen im Gesamtsystem verschiedene Rollen ein: In
symmetrischen Multiagentensystemen haben alle Agenten die gleichen Rechte, in
asymmetrischen sind bestimmte aufgrund ihrer Rolle ausgezeichnet. Auch eine
Kombination eines Multiagentensystems mit einem Masterbrain für bestimmte
Kompetenzbereiche ist möglich – in diesem Fall handelt es sich um ein hybrides System
(vergl. S. 15).

Die Fähigkeiten der Agenten können sehr unterschiedlich realisiert sein [36]: Einfache
Multiagentensysteme beherbergen rein reaktive Agenten, die auf der Basis von Stimulus-
Response-Mustern in geeigneter Weise auf veränderte Bedingungen reagieren.
Komplexere Ansätze umfassen Komponenten von „Proaktivität“ – hier sollen die Agenten
in der Lage sein, durch zielgerichtetes Verhalten eine Eigeninitiative zu übernehmen. Für
die Realisierung kreativer Lösungen in komplexen Situationen ist zweifellos die zweite
Ausrichtung klar wünschenswert, in eher wohlstrukturierten Situationen ist die erste
häufig ausreichend.

Diskussion

Der Unterschied von Agenten Systemen zu herkömmlicher
Softwareentwicklungen liegt damit darin, dass der Sourcecode in
selbstständige Teile gegliedert ist. Hier handelt es sich konzeptionell um
eine Erweiterung des objektorientierten Programmierparadigmas, in
dem Code zwar auch nach klaren Regeln in Teilen zerlegt wird, Klassen
und deren Objekte – diese jedoch in der Regel nicht als „selbstständig
handelnde“ Einheiten zu bezeichnen sind.

Multiagentensysteme realisieren den Kerngedanken der Kybernetik,
weil sie grundsätzlich nach einem bottom-up Ansatz funktionieren: Das
Verhalten der einzelnen Agenten bestimmt das Gesamtsystemverhalten
(in Abgrenzung zu zentralistischen Ansätzen, bei denen das gewünschte
Gesamtsystemverhalten vorgegeben wird, welches dann „rückwärts“
und top-down das notwendige Verhalten der Komponenten festlegt). Sie
sind – ebenso wie die Kybernetik – ein sehr interdisziplinäres Konzept
                                                                                       Abb. 18: Multiagentensystem,
und stark durch soziale und biologische Modelle inspiriert: Vorbilder sind
                                                                                          nach J. Lin et al., 2010;
z.B. menschliches Teamverhalten, Sozialverhalten staatenbildender                       Bild © M. Malcher Aachen
Insekten oder Schwarmverhalten von Fischen je nach Einsatzzweck
(vergl. S. 21).

                                                                                                                  23
Sie können auch lesen