Leading Edge Technologies - Rudolf Meyer 2021-03-24
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Liquidtool Systems AG Leading Edge Technologies Vom Rechenschieber in die Cloud Rudolf Meyer 2021-03-24
Inhaltsverzeichnis 1 Einleitung .................................................................................................................................... 1 2 Ein Rückblick – Industriellen Revolutionen .................................................................. 2 2.1 Industry 0.0 – Industrielle Voraussetzungen ......................................................... 2 2.2 Industry 1.0 – Industrielle Produktion ...................................................................... 3 2.3 Industry 2.0 – Industrielle Massen-Produktion..................................................... 3 2.4 Industry 3.0 – Industrielle Automation ................................................................... 4 2.5 Industry 3.5 – Industrielle Globalisierung ............................................................... 4 3 Ein Hinblick – Wo stehen wir heute? .............................................................................. 6 3.1 Industry 4.0 – Industrielle Digitalisierung............................................................... 6 3.2 Leading Edge Technologies für Industry 4.0 ...................................................... 10 4 Ein Ausblick – Industry 4.0, 5.0, 6.0, 7.0… ..................................................................... 15 Auswirkungen auf den Arbeitsmarkt............................................................................ 15 Anstehende Entwicklungen .............................................................................................16 4.1 Industry 5.0 – Industrielle Kollaboration ...............................................................20 4.2 Industry 6.0 – Industrielle Emotionen ................................................................... 23 4.3 Beyond Industry 7.0 .....................................................................................................34 5 Fazit ........................................................................................................................................... 36 2021-03-24 I Rudolf Meyer
1 Einleitung Ich wurde vor einiger Zeit gefragt, einen Vortrag über Leading Edge Technologien, «Industry 4.0 und danach», und die Bedeutung von Cloud Technologien zu halten. Es stellte sich also die Frage, welchen Einfluss heutige und künftige Leading Edge Technologien auf die Entwicklung von Industry 4.0 haben werden. Wenn Bauteile eigenständig mit der Produktionsanlage kommunizieren und bei Bedarf selbst eine Reparatur veranlassen oder Material nachbestellen - wenn sich Menschen, Maschinen und industrielle Prozesse intelligent vernetzen, dann sprechen wir von Industry 4.0. Nach Dampfmaschine, Fliessband und Computer befinden wir uns nun mit intelligenten Fabriken und der umfassenden digitalen Transformation von Prozessen vor oder in der vierten industriellen Revolution («vor» oder «in» zu beurteilen sei jedem einzelnen überlassen) und entwickeln bereits Gedanken über die Zeit danach, also der fünften industriellen Revolution. Was sind denn heutige «Leading Edge Technologien», welche uns in die nächste «Geländekammer» führen werden? Viele Technologien werden als Kandidaten aufgeführt, eine Schlüsselrolle bei der Weiterentwicklung der Industrie auf dem Weg zu Industry 5.0 zu spielen. Lassen Sie uns einen Blick in die Vergangenheit werfen und herausfinden, welche Schlüsseltechnologien damals eine bedeutende Rolle für die Entwicklung spielten, um danach die Leading Edge Technologien von heute und morgen zu identifizieren. 2021-03-24 1 Rudolf Meyer
2 Ein Rückblick – Industriellen Revolutionen Um die Folge von industriellen Revolutionen zu ermöglichen, bedurfte es vorgängig einige wissenschaftliche Errungenschaften. 2.1 Industry 0.0 – Industrielle Voraussetzungen Um Konstruktionspläne für Maschinen in der Industriellen Revolution zu berechnen war es notwendig mathematische Operationen wie Multiplikationen, Divisionen, Exponentialfunktionen und Trigonometrie exakt ausführen zu können. Der Schlüssel dazu waren die Logarithmen. Logarithmen und Rechenschieber Indische Mathematiker im 2. Jahrhundert v. Chr. haben als Erste Logarithmen erwähnt. Schon in der Antike nutzten sie Logarithmen zur Basis 2 für ihre Berechnungen («digitale Logarithmen»). Ab dem 13. Jahrhundert wurden von arabischen Mathematikern logarithmische Tabellenwerke erstellt. Einige von uns mögen sich noch an Logarithmen-Tafeln im Gymnasium erinnern, es waren dieselben Tabellen, welche 700 Jahre früher entwickelt wurden. Im Jahr 1614 veröffentlichte der schottische Denker John Napier ein Buch über Logarithmen, und schon 1624, zehn Jahre nach der Erkenntnis der Existenz der Logarithmen, gab der englische Theologe und Mathematiker Edmund Gunter erstmals seine Grundgedanken über die logarithmischen Zahlen bekannt. Er entwickelte die „Gunterskala“, ein Stab mit logarithmisch angeordneter Skala. Damit war die Basis für den Rechenschieber, ein Gerät womit man logarithmische Berechnungen durchführen konnte, geschaffen. In den ersten zweihundert Jahren nach seiner Erfindung wurde der Rechenschieber sehr wenig genutzt. Erst Ende des 18. Jahrhunderts wurde seine Bedeutung von James Watt neu erkannt. Aufgrund des technischen Fortschritts in der Zeit der industriellen Revolution wurde der Rechenschieber ein viel benutztes Instrument für technische und wissenschaftliche Berechnungen. Seitdem galt er als das Symbol der Ingenieure, Mathematiker und Physiker. 2021-03-24 2 Rudolf Meyer
2.2 Industry 1.0 – Industrielle Produktion Die erste industrielle Revolution, die auf die Zeit um 1760 zurückgeht, war der Übergang zu neuen Herstellungsverfahren mit Wasser und Dampf. Insbesondere die Textilindustrie wurde durch die Industrialisierung verändert, ebenso wie das Transportwesen. Der erste Webstuhl wurde 1784 eingeführt. Mit der Steigerung der Produktionseffizienz wuchsen die kleinen Unternehmen zu grossen Organisationen mit neuen Strukturen, Eigentümern, Managern und Angestellten und ermöglichte die Schaffung eines besseren Lebensstandards für einige von ihnen. Dampfmaschinen Brennstoffquellen wie Dampf und Kohle machten den Einsatz von Maschinen besser möglich, und die Idee, mit Maschinen zu produzieren, verbreitete sich schnell. Maschinen ermöglichten eine schnellere und einfachere Produktion, und sie ermöglichten auch alle möglichen neuen Innovationen und Technologien. Der Rechenschieber, eine weitere «verborgene» Technologie, spielte eine wichtige Rolle in der Nutzbarmachung der neuen Möglichkeiten, welche durch Dampfmaschinen gegeben waren. Die Leading Edge Technologien der ersten industriellen Revolution Industry waren also die • Dampfmaschinen, und der • Rechenschieber 2.3 Industry 2.0 – Industrielle Massen-Produktion Die erste industrielle Revolution umfasste den Zeitraum zwischen den 1760er Jahren und etwa 1840. Hier setzte die zweite industrielle Revolution ein. Historiker bezeichnen sie manchmal als "Technologische Revolution", die vor allem in Grossbritannien, Deutschland und in Amerika stattfand. Elektrizität In dieser Zeit wurden neue technologische Systeme eingeführt, vor allem die überlegene Elektrotechnik, die eine noch grössere Produktion und den Bau weiterentwickelter Maschinen ermöglichte. In dieser Ära wurde auch das erste Montageband gebaut, wodurch der Prozess der Massenproduktion weiter rationalisiert wurde. Die Massenproduktion von Gütern am Fliessband wurde zur Standardpraxis. Produktionsmanagement In diese Ära fällt auch die Entwicklung der Industriekultur, verschiedene Produktionsmanagement-Techniken wie Just-in-Time-Fertigung und schlanken Produktionsprinzipien. Der amerikanische Maschinenbauingenieur Fredrick Taylor untersuchte Ansätze zur Optimierung der Mitarbeiter, der Arbeitsplatztechniken und der optimalen Ressourcenallokation. Daraus ging der «Taylorismus», eine sehr weitgehende Arbeitsteilung hervor, welche die Anforderungen an die Arbeiter im Produktions-prozess auf das Minimum reduzierte und in der Folge Menschen und Maschinen nach gleicher Art zu organisieren suchte. Die Leading Edge Technologien der zweiten industriellen Revolution waren also die • Elektrizität 2021-03-24 3 Rudolf Meyer
• Produktionsmanagement 2.4 Industry 3.0 – Industrielle Automation Elektronik - Halbleiter Die nächste industrielle Revolution, die zu Industry 3.0 führte, wurde durch die Fortschritte in der Elektronikindustrie in den letzten Jahrzehnten des 20. Jahrhunderts ausgelöst. Industrie 3.0 führte mehr automatisierte Systeme am Fliessband ein, um menschliche Aufgaben zu erledigen, dies vor allem unter Verwendung von «Programmable Logic Controllers (PLC)», speicherprogrammierbaren Steuerungen. Obwohl automatisierte Systeme vorhanden waren, blieben sie immer noch auf menschliche Eingaben und Interventionen angewiesen. Informationstechnologien Ab 1970 führte der Einsatz von Elektronik und IT (Informationstechnologie, damals noch «EDV: Elektronische Datenverarbeitung») zur weiteren Automatisierung der Produktion. Dank Vernetzung und dem späteren Internetzugang machten Fertigung und Automatisierung erhebliche Fortschritte. Die Automatisierung der Produktionsprozesse und die Unterstützung durch Softwaresysteme wie Customer Relationship Management (CRM), Enterprise Resource Planning (ERP), Production Planning Systems (PPS), verteilter Lagerbewirtschaftung u.v.m. haben sich seitdem kontinuierlich weiterentwickelt, was in der Folge auch den Markt für die Software-Entwicklung beflügelt hat. Die Leading Edge Technologien der dritten industriellen Revolution sind also • Elektronik – Halbleiter • Informationstechnologien Club of Rome 1968 wurde der Club of Rome als Zusammenschluss von Experten verschiedener Disziplinen aus mehr als 30 Ländern gegründet, um sich als gemeinnützige Organisation für eine nachhaltige Zukunft der Menschheit einzusetzen. Dies beinhaltete insbesondere die Untersuchung der Auswirkungen von Industry 3.0. Mit dem 1972 veröffentlichten Bericht «Die Grenzen des Wachstums» erlangte weltweite Beachtung. Seitdem kämpft der Club of Rome für eine nachhaltige Entwicklung und setzt sich für den Schutz von Ökosystemen ein. Seit 2008 hat die Organisation ihren Sitz in Winterthur in der Schweiz. 2.5 Industry 3.5 – Industrielle Globalisierung Noch vor der Industry 4.0 fand eine wichtige Veränderung in der Industrie- Landschaft statt. Durch die fortschreitende internationale Vernetzung und die gegenseitige Öffnung der grossen geopolitischen Blöcke wurden technische und auch handelspolitische Barrieren der Vergangenheit abgebaut. Computer Netzwerke Der Druck, die Kosten weiter zu senken, ermunterte viele Hersteller, mit ihrer Produktion in Niedriglohnländer umzuziehen, was durch eine zunehmende 2021-03-24 4 Rudolf Meyer
Vernetzung der Firmenstandorte (enterprise networks) ermöglicht wurde. Die geografische Verteilung der Produktionsstandorte führte zur Entstehung des Konzepts des Supply Chain Management. Internet In dieser Zeit entstand ebenfalls das DARPA Net (Defense Advanced Research Projects Agency Network), ein «durchgebrannter Laborversuch» von drei amerikanischen Universitäten mit dem Auftrag des US Departments of Defense (DoD), die Technologie für ein Netzwerk zu entwickeln, welches bei einem atomaren Schlag nicht komplett ausfällt. Die Arbeit war so erfolgreich, dass sich das Netzwerk nach dem geplanten Projektende drei Jahren später nicht abschalten liess und von einer wachsenden Anzahl Universitäten und Firmen weiter betrieben und genutzt wurde. Das DARPA Net wurde später in ARPA Net und schliesslich in das heutige Internet umbenannt. TCP/IP Die wichtigsten Elemente der Internet-Technologie bildeten (und tun dies bis heute) zwei Netzwerk-Protokolle, das - Internet Protocol (IP), welches eine globale eindeutige Adressierung von Rechnern im Internet sicherstellt und das - Transmission Control Protocol (TCP), welches eine fehlerfreie Übertragung von Daten sicherstellt und die Adressierung von unterschiedlichen Diensten (z.B. Web, Mail, File Transfer, Telefonie) innerhalb eines Rechners ermöglicht. Demokratischer Standardisierungs-Prozess In dem schnell wachsenden Internet war es wichtig, rasch eine breit akzeptierte Standardisierung zu erlangen. Diese wurde über Jahrzehnte in einem globalen demokratischen Prozess organisiert. Ein neuer Standard wurde vom Autor als Request For Comments (RFC) in einer Mailing List publiziert. Nach einer bestimmten Zeit, in welcher der Vorschlag von der Internet-Gemeinde kommentiert und kritisiert werden konnte, wurde zur Abstimmung aufgerufen (Call For Voting, CFV), und wenn der Vorschlag mindestens 100 und über 50% Zustimmungen erhielt, galt er als angenommen, erhielt eine Nummer, und wurde zum Draft Standard erklärt. Bei einer genug breiten Implementierung in den vernetzten Systemen nach einer bestimmten Zeit wurde der Draft Standard zum regulären Standard erklärt, ansonsten wurde er von der Standards-Liste wieder gestrichen. Die wohl bekanntesten Standards sind der RFC 8211, welcher das SMTP Mail- Protokoll (Simple Mail Transfer Protocol) beschreibt, und der RFC 8222, welcher die Struktur und Semantik einer Mail-Nachricht definiert. Die beiden Protokolle vom August 1982 finden nach wie vor globale Anwendung beim Austausch von Mails. Die Leading Edge Technologien der «3½»-ten» industriellen Revolution sind also 1 RFC 821, https://tools.ietf.org/html/rfc821 2 RFC 822, https://tools.ietf.org/html/rfc822 2021-03-24 5 Rudolf Meyer
• Computer Netzwerke • das Internet • TCP/IP Protocol Stack und Standard 3 Ein Hinblick – Wo stehen wir heute? Der Boom in der Internet- und Telekommunikationsindustrie in den 1990er Jahren revolutionierte die Art und Weise, wie wir miteinander kommunizieren und Informationen austauschen. Die fortschreitende Miniaturisierung früher dazu, dass wir Rechenleistungen in Form eines Smartphones in unserer Hand halten, welche früher ganze Rechenzentren gefüllt hat. Die Entwicklung der Telekommunikations-Netze und deren geografischer Abdeckungsgrad ermöglichen es uns, von überall und zu jedem Zeitpunkt beliebige Informationen und Dienstleistungen zu beziehen. Im Zuge dieser Entwicklung ist ein neuer Produktionsfaktor auf die Bühne der Betriebswirtschaftslehre getreten. Neben - Arbeit, - Rohstoffen, und - Betriebsmitteln, kommen zusätzlich - Daten hinzu. Die „industriellen Systeme“ erstrecken sich nicht mehr nur über einen Produktions- Standort oder eine Firma und beschränken sich nicht mehr auf die produzierende Industrie, sondern haben nahezu alle Bereiche unseres täglichen Lebens erfasst, was wiederum die Politik auf den Plan gerufen hat. Diese Entwicklung hat zur „Ausrufung“ der vierten industriellen Revolution geführt. Auf der Hannover Messe 2011 wurde der Begriff „Industrie 4.0“ erstmals öffentlich verwendet. Mit ihm wurde die Hoffnung auf beachtliche Wertschöpfungspotentiale und Innovationsschübe verbunden. In der Hightech-Strategie „Innovationen für Deutschland“ der deutschen Bundesregierung vom September 2014 wurden sechs prioritäre Zukunftsaufgaben für Wohlstand und Lebensqualität formuliert, wobei bereits an erster Stelle eine „Digitale Wirtschaft und Gesellschaft“ mit den zentralen Aktionsfeldern Industry 4.0, Smart Services, Smart Data, Cloud Computing, Digital Communication and Networking, Digital Science, Digital Education, und Digital Living Environment standen. 3.1 Industry 4.0 – Industrielle Digitalisierung Die vierte industrielle Revolution ist das Zeitalter intelligenter Maschinen, Speichersysteme und Produktionsanlagen, die ohne menschliches Zutun autonom Informationen austauschen, Aktionen auslösen und sich gegenseitig steuern und kontrollieren können. Dieser Informationsaustausch wird durch das industrielle Internet der Dinge (Industrial Internet of Things, IIoT), wie wir es heute kennen, ermöglicht. 2021-03-24 6 Rudolf Meyer
Zu den Schlüsselelementen von Industry 4.0 gehören: • Maschinen und Geräte, welche von computergestützten Algorithmen gesteuert werden (Cyber Physical Systems, CPS). • Das Internet der Dinge (Internet of Things, IoT) - miteinander verbundene Netzwerke von Maschinen und Transportmitteln, die mit computergestützten Abtast-, Scan- und Überwachungsfunktionen ausgestattet sind. • Cloud Computing – Bereitstellung von Computer-Ressourcen (z.B. Server, Speicher, Datenbanken, Netzwerkkomponenten, Software, Analyse- und intelligente Funktionen) über das Internet, also die Cloud, um den Zugang zu Ressourcen möglichst flexibel auszugestalten und Skaleneffekte optimal zu nutzen. • Cognitive Computing – Technologe-Plattformen, die künstliche Intelligenz einsetzen. Intelligente Maschinen können Fehlerquellen kontinuierlich überwachen und Fehler erkennen und vorhersagen, um vorbeugende Massnahmen und Korrekturen vorzuschlagen oder direkt durchzuführen. Dies ermöglicht eine bessere Vorbereitung und geringere Ausfallzeiten für die Industrie. Der gleiche dynamische Ansatz lässt sich auch auf andere Aspekte in der Industrie übertragen, wie Logistik, Produktionsplanung, Optimierung der Durchlaufzeiten, Qualitätskontrolle, Kapazitätsauslastung und Effizienzsteigerung. Mit sinkenden Vorlaufzeiten für die Fertigung einer neuen Serie ermöglichen es Produktionsbetrieben, Einzelstück-Fertigungen zu einem ähnlich tiefen Preis wie dem für eine Massen-Fertigung anzubieten. Die Cyber Physical Production (CPP) ermöglicht es auch, eine geografisch weit verteilte Produktions- und Liefer-Kette vollständig virtuell von einem Standort aus zu visualisieren, zu überwachen und zu steuern, um so dem Produktions- Management eine globale und umfassende Steuerungsperspektive zu ermöglichen. Dabei werden Maschinen, Menschen, Prozesse und Infrastruktur in einen einzigen vernetzten Kreislauf gebracht. Wir können drei Treiber der Digitalisierung beobachten3: • Skalierung und Rechenleistung • Netzwerk-Erreichbarkeit • Übertragungs-Geschwindigkeit 3 The Digital Matrix, Professor N. Venkat Venkatraman, 28. Juni 2018 in Bern 2021-03-24 7 Rudolf Meyer
Zunahme der Rechenleistung Seit über 50 Jahren folgt die Entwicklung der Rechenleistung dem Mooreschen Gesetz, welches besagt, dass sich die Anzahl der Transistoren in einem integrierten Schaltkreis (IC) regelmässig verdoppelt, je nach Quelle alle 12, 18 oder 24 Monate. Das Mooresche Gesetz ist eine Beobachtung und Projektion eines historischen Trends. Die Beobachtung ist nach Gordon Moore benannt, dem Mitbegründer von Fairchild Semiconductor und CEO und Mitbegründer von Intel, der 1965 eine jährliche Verdoppelung der Anzahl der Komponenten pro integrierter Schaltung postulierte und prognostizierte, dass diese Wachstumsrate noch mindestens ein weiteres Jahrzehnt anhalten würde. Mit Blick auf das nächste Jahrzehnt revidierte er 1975 die Prognose auf eine Verdoppelung alle zwei Jahre mit einer durchschnittlichen jährlichen Wachstumsrate von 40%. Obwohl sich Moore bei der Vorhersage, dass sich der historische Trend fortsetzen würde, nicht auf empirische Beweise stützte, galt seine Vorhersage seit 1975 und ist seither als "Gesetz" bekannt geworden4. Zunahme der Netzwerk-Erschliessung und wachsende Kommunikationssysteme Das Metcalfe’sche Gesetz ist eine Faustregel über die Wirksamkeit von Kommunikationssystemen. Sie geht davon aus, dass der Nutzen eines Kommunikationssystems proportional zur Anzahl der möglichen Verbindungen zwischen den Teilnehmern, also etwa dem Quadrat der Teilnehmerzahl wächst, während die Kosten nur proportional zur Teilnehmerzahl selbst wachsen. Das führt dazu, dass bei jedem Netz ab einer gewissen Grösse der Nutzen die Kosten übersteigt. Diese mathematisch simple Überlegung wurde erstmals 1980 von Robert Metcalfe gemacht. Seine Überlegung, die er selbst nie als Gesetz bezeichnet und auch nicht publiziert hat, blieb unveröffentlicht bis zur Publikation als Metcalfe’s Law and Legacy durch George Gilder im Jahr 19935. Das seither so genannte Metcalfe’sche Gesetz erklärt die rasant steigende Erreichbarkeit und viele der Vernetzungseffekte von Kommunikationstechniken wie dem Internet oder dem Usenet, jedoch eher grundsätzlich als quantitativ. Zunahme der Übertragungs-Geschwindigkeit «Die Übertragungs-Geschwindigkeit für einen High-End-Benutzer wächst pro Jahr um 50%.» Dies besagt das Niels’sche Gesetz über die Internet Bandbreite. Dieses "Gesetz" wurde 1998 von Jakob Nielsen von der Nielsen Norman Group postuliert und anschliessend in den Jahren 2008 und 2019 aktualisiert. Nielsen begann damit, die Nutzung für sich selbst und andere intensive Datennutzer zu untersuchen und ging dabei auf ein Modem mit 300 bps (Bits pro Sekunde) aus dem Jahr 1984 zurück. Im Jahr 1998 hatte Nielsen ein jährliches Wachstum von 53% gemessen und auf 50% gerundet. In den zehn Jahren von 1998 bis 2008 hatte er ein jährliches Wachstum von 49% gemessen. Edholms Gesetz, von Phil Edholm vorgeschlagen und nach ihm benannt, bezieht sich auf die Beobachtung, dass die drei Kategorien der Telekommunikation, nämlich Mobilfunknetze, nomadische Netze (WLAN und PAN) und Festnetze, sich im um Bezug auf Übertragungsgeschwindigkeit im Gleichschritt befinden und 4 https://en.wikipedia.org/wiki/Transistor_count, https://ourworldindata.org/uploads/2019/05/Transistor-Count-over-time-to-2018.png 5 https://web.archive.org/web/20160402225847/http://www.seas.upenn.edu/~gaj1/metgg.html 2021-03-24 8 Rudolf Meyer
allmählich konvergieren. Edholms Gesetz besagt auch, dass die Datenraten für diese Telekommunikationskategorien auf ähnlichen exponentiellen Kurven ansteigen und sagt voraus, dass sich die Bandbreiten und die Datenraten alle 18 Monate verdoppeln, was sich seit den 1970er Jahren als wahr erwiesen hat. Ein neues Organisationskonzept Industry 4.0 beinhaltet aber auch ein Organisationskonzept, welches aus vier grundlegenden Prinzipien besteht. 1. Durchgängigkeit der Vernetzung: Produkte, Maschinen, Werkzeuge, Sensoren und Menschen vernetzen sich miteinander und über das Internet der Dinge (Industrial Internet of Things, IIoT) oder das „Internet der Menschen“ und kommunizieren direkt miteinander. Dabei können sie gemeinsames Wissen erlangen und eine gemeinsame künstliche Intelligenz entwickeln (swarm intelligence). 2. Durchgängigkeit und Transparenz von Informationen: Sensordaten erweitern Informationssysteme digitaler Fabrikations-Modelle, um so ein virtuelles digitales Abbild der realen Welt zu erstellen (digital twin). Basierend auf diesen Modellen kann über Aktuatoren automatisch in den Fabrikations-Prozess eingegriffen werden, so dass dieser als kybernetisches System gesteuert und geregelt werden kann, und jederzeit aktuelle Informationen aus der Fabrikationskette abgerufen werden können (digital cybernetics). 3. Automatisierte Assistenz: Assistenzsysteme unterstützen den Menschen mit Hilfe von aggregierten, visualisierten und einfach verständlichen Informationen (digital assistant). So können Entscheidungen sicher getroffen und auftretende Probleme schnell gelöst werden. Ausserdem werden Menschen bei anstrengenden, unangenehmen oder gefährlichen Arbeiten physisch unterstützt oder ganz durch Roboter ersetzt (digital proxy). 4. Dezentrale Autonomie: Teile der Produktions-Infrastruktur - Cyber Physical Systems - sind in der Lage, eigenständige Entscheidungen zu treffen und Aufgaben möglichst autonom zu erledigen (autonomous systems) . Nur in Ausnahmefällen, zum Beispiel bei Störungen oder Zielkonflikten, übertragen sie die Aufgaben an eine höhere Instanz, ein übergeordnetes System und als letzten Ausweg an einen Menschen. Der optimale Grad der anzustrebenden Autonomie ist von unterschiedlichen Faktoren abhängig6. Was sind nun die Leading Edge Technologien in der Industry 4.0? 6 Norbert Gronau, Marcus Grum, Benedict Bender: Determining the optimal level of autonomy in cyber-physical production systems. In: 2016 IEEE 14th International Conference on Industrial Informatics (INDIN). IEEE, Poitiers, France 2016, ISBN 978-1-5090-2870-2, S. 1293– 1299, https://doi.org/10.1109/INDIN.2016.7819367 2021-03-24 9 Rudolf Meyer
3.2 Leading Edge Technologies für Industry 4.0 Durchgängigkeit der Vernetzung von Produkten, Maschinen, Werkzeugen, die Durchgängigkeit und Transparenz von Informationen, eine automatisierte Assistenz, und dezentrale autonome Systeme lassen auf die Technologien schliessen, welche zur Umsetzung dieser Prinzipien benötigt werden. Daraus können wir die Leading Edge Technologien der vierten industriellen Revolution herleiten: • Halbleitertechnik, Mikroelektronik und Quantum Computing Die Weiterentwicklung der Halbleiterindustrie und der Mikroelektronik mit einer kontinuierlichen Erhöhung der Integrationsdichte ist zur Fortschreibung des Mooreschen und auch des Niels’schen Gesetzes notwendig. Als Alternativen erscheinen neue Ansätze für gesteigerte Rechenleistungen am Horizont, wie z.B. Quantum Computing. • Industrial Internet of Things (IIoT) Das Industrielle Internet der Dinge vernetzt Maschinen, Werkzeuge, Produkte und Menschen durchgängig und ermöglicht den transparenten Informationsaustausch sowie die durchgängige Auslösung von Aktionen im gesamten Netz. Maschinen und gefertigte Produkte kommunizieren während des Produktionsprozesses untereinander und mit Leitsystemen. Gartner Reference Model for IoT7 (adapted): Später kommunizieren die Produkte während dem Betrieb kontinuierlich mit Betriebs-Leitstandsystemen, und ggf. automatisch mit den Maschinen bzw. Fertigungssystemen, welche sie produziert und gewartet haben. • Cloud Da die Anzahl der kommunizierenden Devices stark zunimmt, braucht es eine Plattform, welche dem „Ansturm von Informationen“ gewachsen ist und diese auch sicher aufnehmen kann. Dies ist besonders wichtig, wenn die Devices Nutzungsdaten für eine variable Abrechnung von Dienstleistungen an die Plattform senden. Verliert diese die Informationen oder kann sie nicht 7 Gartner Research 2017-2019 2021-03-24 10 Rudolf Meyer
aufnehmen, so können dem Dienstleistungs-Anbieter erhebliche kommerzielle Schäden entstehen. Cloud Systeme verfügen über eine Netzwerk-Anbindung mit sehr hohen Bandbreiten, sind elastisch bezüglich Workload und können massiv skalieren. • Artificial Intelligence Die Artificial Intelligence (AI, künstliche Intelligenz, KI) beschreibt, wie der Name schon sagt, die Fähigkeit von Maschinen, menschliche geistige Fähigkeiten zu imitieren. Diese Intelligenz ist jedoch nicht auf Maschinen beschränkt - sie gilt auch für Softwaresysteme. Daher gibt es die Unterscheidung zwischen Robotik und maschinellem Lernen (oder AI). Die drei Hauptkomponenten sind daher - die Maschine oder das System, - Software, und die - Internet-Konnektivität (Cloud and Big Data). Artificial Intelligence ist ein bedeutender Teil von Industry 4.0 AI ist eine der neuen Technologien, die von den Produktions-Firmen bereits zur Verbesserung der Produktqualität, der Effizienz und zur Senkung der Betriebskosten eingesetzt wird. Wir können den Aufbau von Arbeitsbeziehungen zwischen Menschen und Robotern beobachten, ein Bereich, der stark von der Nutzung von AI in den Produktionsstätten profitiert. Die Smart Factory (intelligente Fabrik) mit vollständig verbundenen Produktionsprozessen(hyper connected), besteht aus verschiedenen Maschinen, die alle miteinander kommunizieren und sich auf AI- Automatisierungsplattformen stützen, um alle Arten von Daten einschliesslich Messwerten von Sensoren, Bildern, Audio, Video, Text und Code zu analysieren und dann selbständig geeignete Planungs-, Optimierungs- und Korrektur- Massnahmen einzuleiten. Bots und Fraktal-Technologie Fertigungsunternehmen versuchen, möglichst voll-integrierte Automatisierungsplattformen einzusetzen unter Verwendung von Bots, die mit Fraktal-Technologie gebaut wurden, um verwaltungsbasierte Rollen und Aufgaben zu übernehmen8. Die Fraktal-Theorie, eine Disziplin aus der Chaos Theorie, basiert auf der Prämisse der Selbstähnlichkeit in verteilten Neuronalen Netzwerken (Distributed Neural Networks) und dass Netzwerke von Neuronen ähnliche, aber nicht identische Signale über untersuchte Muster senden. Da die Fraktal Theorie eher deterministisch ist, benötigt man mit der Fraktal- Technologie weniger Infrastruktur, weniger Rechenleistung, und sie ist einfach und schnell zu implementieren. Diese Arten der AI, die als Multi-Mandanten-Plattformen (multi-tenancy platforms) bekannt sind, ermöglichen es, mehreren Bots auf einem einzigen Rechner zu betreiben und mehrere verschiedene Prozesse gleichzeitig auszuführen. Diese Bots, als Teil oder unter Einbezug von Cognitive Services (AI Services aus der Cloud) werden nicht nur den Herstellungsprozess beschleunigen, sondern 8 Dataquest India, Februar 2020, https://www.dqindia.com/empowering-industry-4-0-artificial-intelligence/ 2021-03-24 11 Rudolf Meyer
auch menschliche Arbeitskräfte bei der Entscheidungsfindung unterstützen. Bots können strukturierte und unstrukturierte Daten in Form von Messdaten, Algorithmen und Systemmeldungen in Echtzeit sammeln, verarbeiten, analysieren und daraus bestimmte Ereignisse beschreiben (descriptive analytics), erklären (diagnostic analytics), voraussagen (predictive analytics), Handlungs-Vorschläge machen (prescriptive analytics), und schliesslich die Handlungs-Vorschläge unter Einsatz statistischer und linguistischer Technologien für den Menschen besser verständlich machen (augmented analytics). Wo erwünscht, werden sie Entscheidungen über ihre Handlungs- Vorschläge gleich selbst fällen und diese autonom umsetzen (autonomous systems). Machine Learning, ein Subset of AI Beim maschinellen Lernen (machine learning) entdecken Maschinen (Rechner), wie sie Aufgaben ausführen können, ohne explizit dafür programmiert zu sein. Dabei «lernen» Computer aus bereitgestellten Daten, so dass sie bestimmte Aufgaben ausführen können. Für einfache Aufgaben, die Computern zugewiesen werden, ist es möglich, Algorithmen zu programmieren, die der Maschine sagen, wie sie alle zur Lösung des jeweiligen Problems erforderlichen Schritte ausführen soll - auf Seiten des Computers ist kein Lernen erforderlich. Bei fortgeschritteneren Aufgaben kann es für einen Menschen eine schwierig oder zu aufwändig sein, alle benötigten Algorithmen manuell zu erstellen. Es kann sich als wirksamer erweisen, der Maschine bei der Entwicklung eines eigenen Algorithmus zu helfen, als dass der Programmierer jeden erforderlichen Schritt spezifizieren muss. Maschinen können die menschlichen Fähigkeiten des Denkens und des Wissenserwerbs nur imitieren. Menschen lernen durch verschiedene Methoden, für welche es keine "Einheitslösung" gibt. Das Lernen erfolgt durch Beispiel (Imitation), Versuch und Irrtum (Heuristik) und Wiederholung (Empirik) oder Auswendiglernen (Drill, Memorisieren). Zum Tragen kommt Machine Learning dank den grossen verfügbaren Rechner- Kapazitäten, welche das Durchspielen von Lern-Algorithmen in grosser Anzahl und kurzer Zeit erlauben. • Chiffrier- Und Blockchain-Technologie Aufgrund der durchgängigen Vernetzung von Systemen im Internet in einem Mass, welches von Menschen oder auch Firmen kaum überschaubar ist, gewinnen Technologien für den Schutz von Daten (Vertraulichkeit, Unverfälschbarkeit) zunehmende Bedeutung. Die dafür notwendigen Chiffrier-Technologien (encryption technologies) sind seit langer Zeit verfügbar und könne in zwei Kategorien aufgeteilt werden. - Beim Secret Key Verfahren chiffriert man mit einem geheimen Schlüssel die zu schützenden Daten und braucht denselben Schlüssel, um die Daten wieder zu dechiffrieren. Sender und Empfänger von Daten müssen also denselben Schlüssel besitzen und benutzen. - Beim Public Key Verfahren werden zwei Schlüssel generiert für jeden Teilnehmer am Datenaustausch. Alles was mit dem ersten Schlüssel chiffriert worden ist, kann mit dem zweiten Schlüssel dechiffriert werden, und umgekehrt. Jeder Teilnehmer verwahrt den einen Schlüssel als Private Key an einem sicheren Ort und publiziert den zweiten Schlüssel als Public Key an alle Teilnehmer eines Datenaustauschs. 2021-03-24 12 Rudolf Meyer
Public Key Infrastructure (PKI) Die Public Key Infrastructure (PKI) beschreibt Methoden und Tools, um Daten vor unberechtigtem Zugriff zu schützen, den Sender von Daten sicher zu identifizieren, und Verfälschungen von Daten während der Übertragung zu verhindern. Um die Echtheit bzw. das rechtmässige Eigentum eines Schlüsselpaares zu bestätigen, braucht es digitale Zertifikate, welche von akkreditierten Zertifizierungsstellen (certificate authority) vergeben werden. Mit PKI könnten die am meist verbreiteten Missbräuche im Internet eliminiert werden: - SPAM – Anonyme Mails → Absender mit PKI sicher identifiziert. Mail- Programme würden nur korrekt signierte Mails akzeptieren, und damit wären diese nicht mehr anonym. - Spoofing, Hijacking – Falscher Datenverkehrs-Absender vortäuschen um den vertraulichen Datenverkehr zu einem Server abzufangen → Absender mit PKI sicher identifizierbar. Systeme und Netzwerke würden nur korrekt signierte Daten-Pakete akzeptieren. - Phishing Attacks – Falschen Absender vortäuschen, um den Empfänger zu falschen und schädlichen Handlungen anzuleiten → Absender mit PKI sicher identifizierbar. - Man in the Middle Attack – Abhören von Informationsaustausch → Datentransfer ist durch Chiffrierung vor Fremdzugriff geschützt, ohne dass der zur Dechiffrierung benötigte Schlüssel übertragen werden muss. - Virus Attacks – Erlangung von unberechtigtem Zugriff auf Daten und Systeme durch Schadsoftware → Durch PKI ist die Signatur des Erstellers von Software identifizierbar. Betriebssysteme würden nur korrekt signierte Programme ausführen. - Ransom Attacks – Verschlüsselung von Firmendaten durch Schadsoftware und Erpressung eines Lösegelds als Gegenleistung zur Herausgabe des Decryption Keys → Durch PKI ist die Signatur des Erstellers von Software identifizierbar. Betriebssysteme würden nur korrekt signierte Programme ausführen. - Non-Repudiation, Proof of Evidence – Abstreiten eines Mail-Versands oder eines Programm-Aufrufs → Absender bzw. Benutzer des Programm-Aufrufs mit PKI sicher identifizierbar. Die Technologie wird in der Client-Server Kommunikation im Internet flächendeckend eingesetzt und zunehmend von Regierungs-Institutionen und Organisationen zur Implementierung von digitalen Unterschriften übernommen. Allerdings bleibt die flächendeckende Verbreitung auf alle Benutzer im Internet aus, da leider für das Zertifizierungs-Geschäft, also die akkreditierten Zertifizierungs-Stellen ein Oligopol besteht. Deshalb sind Zertifikate zur Signierung von Mails, Programm- und Web-Aufrufen, sowie zur Signierung von Software nur überteuert erwerbbar, so dass sich viele Benutzer den «Luxus eines Zertifikats» nicht leisten können oder wollen –– und die Politik unternimmt nichts dagegen. Blockchains Eine Blockchain (Block Chain, Kette von Blocks) ist eine wachsende Liste von Datensätzen, genannt Blöcke, die durch Kryptographie verknüpft sind. Jeder Block enthält 2021-03-24 13 Rudolf Meyer
einen kryptographischen Hash9 (message digest) des vorherigen Blocks, einen Zeitstempel und Transaktionsdaten in Form einer wachsenden Baum-Struktur (Merkle Tree, Merkle-Damgård Construction). Eine Blockchain ist vom Design her gegen nachträgliche Änderungen ihrer Daten resistent. Sie ist ein offenes, verteiltes Hauptbuch, das Transaktionen zwischen zwei Parteien effizient, sicher und auf überprüfbare und dauerhafte Weise aufzeichnen kann (digital ledger). Für die Verwendung als verteiltes Hauptbuch wird eine Blockchain typischerweise von einem Peer-to-Peer- Netzwerk verwaltet, das sich kollektiv an ein gemeinsames Protokoll für die Kommunikation zwischen den akkreditierten teilnehmenden Knoten hält und neue Blöcke validiert. Einmal aufgezeichnet, können die Daten in einem bestimmten Block nicht rückwirkend geändert werden, ohne dass alle nachfolgenden Blöcke geändert werden, was den Konsens der Netzwerkmehrheit erfordert (consensus). Obwohl Blockchain-Aufzeichnungen nicht unveränderlich sind, können Blockchains vom Design her als sicher angesehen werden und sind ein Beispiel für ein verteiltes Computersystem mit hoher byzantinischer Fehlertoleranz. Ein byzantinischer Fehler (byzantine fault, auch als interaktive Konsistenz, Quellkongruenz oder Fehlerlawine bekannt) ist der Zustand eines verteilten Computersystems – hier also der in einer Blockchain teilnehmenden Rechner, bei dem Komponenten ausfallen oder Fehlfunktionen auftreten können und es unvollständige Informationen darüber gibt, ob eine Komponente ausgefallen ist. Der Begriff kommt von einer beispielhaften Problem-Beschreibung, dem "Problem der byzantinischen Generäle", das entwickelt wurde, um eine Situation zu beschreiben, in der sich die Akteure des Verbands (die Blockchain) auf eine konzertierte Strategie einigen müssen, um ein katastrophales Versagen des Systems zu vermeiden (Verlust oder unzulässige Änderung von daten in der Blockchain), aber einige dieser Akteure unzuverlässig oder Verräter sind. Aus diesem Grund bleibt eine Blockchain sicher, solange die Mehrheit der teilnehmenden Rechner sich korrekt verhält. Smart Contracts Basierend auf der Blockchain Technologie sind Smart Contracts Computerprotokolle, welche Verträge abbilden oder überprüfen, oder aber die Verhandlung oder Abwicklung eines Vertrags technisch unterstützen können. Eine schriftliche Fixierung des Vertrags (auf Papier oder in einer Datei) wird damit unter Umständen überflüssig. Smart Contracts haben Benutzerschnittstellen und bilden die Logik vertraglicher Regelungen technisch ab. Damit wird versucht, eine höhere Vertragssicherheit gegenüber traditionellem Vertragsrecht bei gleichzeitiger Reduktion der Transaktionskosten zu erreichen. Der Einsatz von Smart Contracts ermöglicht neue Geschäftsmodelle und verbesserte Vertragsprozesse. So können manuelle Vertragsprozesse mit Dokumentationslücken vermieden und damit die Geschwindigkeit und Qualität der grundlegenden Geschäftsprozesse erhöht werden. 9 Cryptographic Hash Functions https://en.wikipedia.org/wiki/Cryptographic_hash_function, https://en.wikipedia.org/wiki/Comparison_of_cryptographic_hash_functions 2021-03-24 14 Rudolf Meyer
Zusammengefasst: Die Leading Edge Technologien der vierten industriellen Revolution sind also • Halbleitertechnik, Mikroelektronik und Quantum Computing • Industrial Internet of Things • Cloud • Artificial Intelligence • Chiffrier- und Blockchain-Technologie 4 Ein Ausblick – Industry 4.0, 5.0, 6.0, 7.0… Wenden wir uns nun dem Ausblick auf die Zukunft zu, oder genauer, dem Ausblick auf «eine mögliche» Zukunft. Dabei ist es ist wichtig zu beachten, dass nicht alle Aspekte der weiteren Entwicklung der vierten industriellen Revolution gleich genau antizipiert werden können, und dies gilt in verstärktem Mass für den Ausblick auf die Zeit nach Industry 4.0. Die folgenden Ausführungen enthalten also zum Teil spekulative Überlegungen zu einer möglichen Zukunft. Auswirkungen auf den Arbeitsmarkt Gemäss einer Studie10 der Forscher Carl Frey and Michael Osborne der Oxford University, die seit ihrem Erscheinen im Jahr 2013 grosse Aufmerksamkeit auf sich gezogen hat. Die Studie hat über 700 Berufsgruppen – allerdings nur auf den US- Arbeitsmarkt bezogen – und deren Zukunftsaussichten hinsichtlich ihrer „Rationalisierung durch Automatisierung“ berechnet. Die Forscher kommen zu dem Ergebnis, dass fast die Hälfte der Arbeitsplätze in den kommenden 20 Jahren bedroht sein wird. Sicher – die Berufsgruppen des US- Arbeitsmarktes lassen sich nicht 1:1 auf den europäischen oder deutschen Arbeitsmarkt übertragen. Das Nettoergebnis ist, dass 47% der Arbeitsplätze einem hohen Rationalisierungs-Risiko ausgesetzt sind, 19% einem mittleren Risiko und 33% einem geringen Risiko. 10 Future of Work, Frey and Osborne, University of Oxford 2013, https://www.oxfordmartin.ox.ac.uk/future-of-work/, https://www.oxfordmartin.ox.ac.uk/publications/the-future-of-employment/ 2021-03-24 15 Rudolf Meyer
Anstehende Entwicklungen In der ersten Welle der digitalen Transformation wurden analoge Informationen digitalisiert und so für die Informationssysteme verwendbar gemacht. In der zweiten Welle der digitalen Transformation11 werden für die physischen Devices digitale Twins erstellt (Zwillings-Abbilder), welche eine durchgängige Bearbeitung durch Informationssysteme erlauben. Basierend auf den Informationen des digitalen Twins kann ein Informationssystem über Aktuatoren automatisch in das Verhalten des Devices eingreifen, so dass dieser ebenfalls als kybernetisches System gesteuert und geregelt werden kann, und seine aktuelle Zustands-Informationen jederzeit abgerufen werden können. Die zweite Welle der digitalen Transformation wird zu neuen Geschäftsmodelten führen und neue Anbieter auf den Markt rufen. Autonomous Systems • Autonomous Cars, Autonomous Aircrafts Wenn Experten das Sicherheitspotenzial von selbstfahrenden Autos veranschaulichen wollen, weisen sie zu Recht auf die bemerkenswerte Sicherheitsbilanz moderner Flugzeuge hin. Weltweit ereignet sich nur ein tödlicher Unfall pro 3 Millionen grosser kommerzieller Passagierflüge (ein Rückgang um den Faktor 16 seit den 1970er Jahren). Im vergangenen Jahr kam es bei US-Fluggesellschaften erstmals seit 2009 wieder zu einem Todesfall. Aber die Piloten sollten dafür nicht die ganze Anerkennung erhalten. Verkehrsflugzeuge befinden sich bei jedem Flug nur etwa drei bis sechs Minuten lang in den Händen eines Menschen - meist während dem Start und der Landung. Den Rest der Zeit sind automatisierte Systeme zuständig. Seit mindestens einem Jahrzehnt gibt es eine Technologie, mit der Verkehrsflugzeuge mit wenig, bis gar keiner menschlichen Unterstützung fliegen können. Der Grund dafür, dass sie das nicht tun, ist eher eine Frage der Regulierung - und der menschlichen Psychologie - als der Technologie selbst. Zwei Abstürze von Boeings Flugzeugen des Typs 737 Max 8 haben jüngst 346 Menschenleben gefordert. Es ist nicht die Technologie, die versagt hat (obwohl die Flugsensoren auf beiden Flügen offenbar nicht funktionierten und der Software Systeme fehlten, die fehlerhafte Messwerte verhindern hätten können). In ihrem Bestreben, ihre Flugzeugkonstruktion aus den 1960er Jahren zu modernisieren, um mehr Passagiere befördern zu können und eine bessere Treibstoffeffizienz auf billige 11 The Digital Matrix, Professor N. Venkat Venkatraman, 28. Juni 2018 in Bern 2021-03-24 16 Rudolf Meyer
Weise zu erreichen, übersahen das Luft- und Raumfahrtunternehmen und seine Regulierungsbehörden eine Kaskade von Fehlern, die sich bei jedem Schritt verschlimmerten. Dies führte dazu, dass zwei Flugbesatzungen darum kämpften - und dabei scheiterten - die Kontrolle über ihr Flugzeug einem autonomen Lenksystem zu entreissen, das ihre Maschine wiederholt in einen Sturzflug zwang. Sicherheitseinrichtungen wurden als teure Extras anstatt als Standardausrüstung verkauft. Die Nachschulung der Piloten wurde praktisch ignoriert ("eine einzige iPad-Unterrichtslektion für eine Stunde" gemäss einem Piloten). Trotz der Neugestaltung des Rahmens und der Triebwerke des Flugzeugs stellte Boeing die Änderungen als minimal dar, obwohl die Änderungen die Handhabung des Flugzeugs völlig veränderten. Nach den Boeing-Ereignissen stellt sich für selbstfahrende Autos nicht mehr nur die Frage, ob wir der Technologie auf unseren Strassen vertrauen können - die Frage ist, ob wir den Unternehmen und Regulierungsbehörden, die solche Technologien entwickeln, überhaupt vertrauen können. Die kaltblütigen Berechnungen von Boeing, wenn es darum ging, das Leben anderer Menschen zu riskieren, deuten auf die Probleme bei der Zertifizierung von automatisierten Fahrzeugen hin. Die Software für selbstfahrende Autos wird viel komplizierter und weniger getestet sein als diejenige in Flugzeugen. • Smart and Autonomous Highways Im Jahr 2014 wurde in den Niederlanden ein Streifen "intelligenter" Autobahn mit im Dunkeln leuchtenden Strassenmarkierungen eröffnet, um die Verkehrssicherheit zu verbessern. Als der niederländische Designer Daan Roosegaarde Ende 2012 seine Pläne für eine "intelligente" Autobahn enthüllte, schien es ein ehrgeiziges Projekt zu sein. Entworfen, um sowohl die Verkehrssicherheit als auch die Umweltfreundlichkeit zu verbessern, schlug er mehrere Merkmale vor, darunter: - dynamische, temperaturempfindliche Markierungen, die sich je nach Wetterbedingungen ändern können - leuchtende Fahrbahnmarkierungen - Windanzeigeleuchten, und - eine mit Induktionsspulen versehene Fahrspur, um Elektroautos beim Überfahren aufladen zu können. Die Markierungen selbst sind dank eines speziell entwickelten langnachleuchtenden Pulvers, das der Strassenfarbe beigemischt wird, sehr hell, und sie bleibt bis zu 10 Stunden lang hell, nachdem sie tagsüber mit Sonnenlicht aufgeladen wurde. Dies ist in den Niederlanden besonders willkommen, wo die Strassenbeleuchtung spät in der Nacht ausgeschaltet wird, um Geld zu sparen, was zu gefährlichen Fahrbedingungen führt. Als Erweiterung könnten Autonome Highways den Verkehr künftig basierend auf ihren Sensordaten autonom regeln. • Autonomous Weapons, Autonomous Warfare 2021-03-24 17 Rudolf Meyer
Autonome Waffen (Lethal Autonomous Weapons, LAWs) sind autonome militärische Systeme, welche auf der Grundlage programmierter Beschränkungen (constraints) und Beschreibungen (descriptions) selbständig nach Zielen suchen und diese bekämpfen können. Autonome Waffen werden auch als Roboterwaffen (robot weapons), Killerroboter (killer robots) oder Schlachtroboter (slaughterbots) bezeichnet. Autonome Waffen können in der Luft, zu Lande, zu Wasser, unter Wasser oder im Weltraum operieren. Die Autonomie der derzeitigen Systeme wurde ab 2018 durch internationale Abkommen in dem Sinne eingeschränkt, dass ein Mensch den letzten Befehl zum Angriff geben muss, wobei es bei bestimmten "defensiven" Systemen Ausnahmen geben kann. Bei der autonomen Kriegsführung (autonomous warfare) wird einem Kampfleitsystem innerhalb von definierten Grenzen die freie Wahl gelassen, dieses Gebiet mit autonomen Waffen zu verteidigen oder zu erobern. Die Zivilgesellschaften werden sich dieser Entwicklung stellen müssen, wollen sie via Politik die Kontrolle über das Militär beibehalten. Artificial Excellence • Project Debater Der Project Debater ist ein AI-System, welches von IBM seit 2012 entwickelt wird12, und das mit Menschen über komplexe Themen eine Diskussion führen kann. Der Project Debater verarbeitet umfangreiche Texte, erstellt einen gut strukturierten Text (Rede) zu einem bestimmten Thema, und diskutiert (bestätigt und widerlegt) Argumente mit seinen «Diskurs-Gegnern». Schließlich hilft der Project Debater den Menschen beim kausalen Denken, indem er überzeugende, evidenzbasierte Argumente liefert und den Einfluss von Emotionen, Voreingenommenheit oder Mehrdeutigkeiten reduziert. • Artificial Decision Makers Betrachten wir beispielhaft die mögliche Entwicklung des CFO als Schlüsselposition in einer Unternehmung: Augmented CFO 1. Verbesserte Entscheidungsfindung CFOs müssen bei komplexen Entscheidungen mit grosser Tragweite, wie z.B. bei grossen Investitionsprogrammen, Turnaround-Projekten, Übernahmen, ihre Entscheidungsfindung für Finanzanalysten und Investoren transparent begründen können. Entscheidungen dieser Art basieren auf zahlreichen Metriken, welche die komplexen Zusammenhänge zwischen den verschiedenen Performance-Indikatoren nicht transparent widerspiegeln. 12 IBM Research, Project Debater, https://www.research.ibm.com/artificial-intelligence/project-debater/ 2021-03-24 18 Rudolf Meyer
AI verringert diese Komplexität, indem die Faktoren, welche die Leistung beeinflussen, vernetzt werden und die Korrelationen zwischen allen potenziellen Faktoren aufgedeckt wird. Dies ermöglicht es den CFOs, die Auswirkungen einer Entscheidung genau zu modellieren. 2. Frühwarnsysteme Für Unternehmen in hochzyklischen Branchen und Unternehmen, die von schwankenden Rohstoffpreisen beeinflusst werden, kann eine genaue Prognose von Wirtschaftsindikatoren wie z.B. BIP, Verbraucherindices, Konjunktur-Trends und Rohstoff-Marktzahlen den Unterschied zwischen Erfolg und Misserfolg ausmachen. Viele dieser Frühindikatoren werden nur monatlich oder vierteljährlich veröffentlicht, sodass Unternehmen nur sehr wenig Zeit haben, auf Veränderungen zu reagieren und ihre Strategien anzupassen. Daher suchen die CFOs nach Möglichkeiten, diese Indikatoren so früh wie möglich zu erhalten, um Veränderungen des wirtschaftlichen Umfelds zu antizipieren und proaktive Entscheidungen über Risikoexposition, Kapitalinvestitionen, Kauf/Verkauf von Lagerbeständen und eine genauere Prognosen des Geschäftsgangs zu ermöglichen. Durch die Kombination externer Daten mit internen Daten eines Unternehmens kann AI monatliche oder sogar wöchentliche Vorhersagen erstellen und Warnungen über mögliche Veränderungen in der Wirtschaft generieren, bevor diese Frühindikatoren veröffentlicht werden. Mit diesem Ansatz können Unternehmen beispielsweise ein Frühwarnsystem aufbauen. Sie können aus den Änderungen in verschiedenen Geschäftszyklen und ihren Auswirkungen auf Vertrieb, Produktion und andere Bereiche lernen, indem sie interne Daten aus verschiedenen Geschäftsbereichen wie Bestellungen, Verkauf, Lagerbestand, Produktion und Betriebsdaten verwenden. Sie können dann mithilfe von Algorithmen für Machine Learning sogenannte Nowcasting Modelle erstellen (die sehr kurzfristige Vorhersagen ermöglichen), um den Kausalzusammenhang zwischen den internen Faktoren und makroökonomischen Indikatoren zu verstehen. Letztendlich kann dies ermöglichen, eine Reihe von Frühwarnsignalen zu identifizieren, die regelmässig vorhergesagt und schneller als die Standard- KPI verfügbar gemacht werden können. Diese Signale können den CFO auf potenzielle zukünftige Chancen und Gefahren aufmerksam machen (predictive analytics), und basierend darauf können auch Handlungs- Empfehlungen (prescriptive analytics) generiert werden. Artificial CFO Wenn man den Gedanken weiterspinnt, könnte die Umsetzung der Handlungs- Empfehlungen (Entscheide) teilweise oder vollständig an ein AI-basiertes kybernetisches System übertragen werden (autonomous system), und der «reale» CFO kann sich auf die Kontrolle des Systems und auf die Strategie konzentrieren. 2021-03-24 19 Rudolf Meyer
Artificial Executive Board Ähnlich wir beim CFO ist es möglich, weitere Teile einer Geschäftsleitung, oder sämtliche Funktionen an ein autonomes System übertragen werden, und die Mitglieder der Geschäftsleitung können sich auf die kreativen Aktivitäten der Geschäftsführung fokussieren. 4.1 Industry 5.0 – Industrielle Kollaboration Weniger als ein Jahrzehnt ist vergangen, seit erstmals von Industry 4.0 die Rede war, und doch prognostizieren Visionäre bereits die nächste Revolution - Industry 5.0. Wenn die aktuelle Revolution die Umwandlung von Fabriken in IoT-fähige intelligente Einrichtungen betont, die Cognitive Computing nutzen und über Cloud-Server miteinander verbunden sind, wird sich Industry 5.0 auf die Rückkehr der menschlichen Hände und des menschlichen Geistes in das industrielle Framework konzentrieren. Als ein Resultat der Industry 4.0 werden viele Jobs durch Maschinen übernommen worden sein, was zu einer Umschichtung des Arbeitsmarktes bezüglich benötigter Ausbildungen und Fähigkeiten führen, und während dessen Umbau wohl zu grösseren Herausforderungen für die Zivilgesellschaft führen wird. Industry 5.0 ist die Revolution, in der sich «Mensch und Maschine versöhnen» und Wege zur Zusammenarbeit finden, um die Produktion zu verbessern. Die fünfte Revolution könnte bei den Unternehmen, die gerade erst die Prinzipien von Industry 4.0 übernehmen und welche Maschinen neu bislang dem Menschen vorbehaltene Aufgaben zuweisen, bereits im Gange sein. Selbst wenn die Produktions-Firmen beginnen, fortschrittliche Technologien einzusetzen, entlassen sie nicht sofort weite Teile ihrer Belegschaft und werden augenblicklich vollständig digitalisiert. Ausserdem kämpfen in Teilen der Industrie Abteilungen, welche die digitale Transformation vorantreiben mit Akzeptanz-Problemen gegenüber der Automatisierung und dem damit verbundenen Arbeitsplatz-Abbau. Industry 5.0 wird eine verstärkte Zusammenarbeit zwischen Menschen und intelligenten Systemen bringen. Die Kombination der beiden Kompetenzen wird die Hochgeschwindigkeitsgenauigkeit der industriellen Automatisierung um die kognitiven, kritischen Denkfähigkeiten des Menschen ergänzen. Laut Esben H. Østergaard, Chief Technology Officer von Universal Robots, ist die Entwicklung hin zu Industry 5.0 notwendig, da die Kunden einen hohen Bedarf an Individualisierung der gekauften Produkte haben13. Individualisierung und Personalisierung Die Kunden bevorzugen ein gewisses Mass an "praktischer" Personalisierung und Anpassung ihrer Produkte. Ähnliches beschreibt ein von Esben H. Østergaard zitierter Artikel von Bloomberg14, in dem die Entscheidung des Autoherstellers 13Blog von Esben H. Østergaard, https://blog.universal-robots.com/author/esben-h-%C3%B8stergaard 14“Mercedes Boots Robots From the Production Line” by Elisabeth Behrmann and Christoph Rauwald, Bloomberg 2016 https://www.bloomberg.com/news/articles/2016-02-25/why-mercedes-is-halting-robots-reign-on-the-production-line 2021-03-24 20 Rudolf Meyer
Sie können auch lesen