Künstliche Intelligenz verändert die Arbeitswelt

 
WEITER LESEN
Künstliche Intelligenz verändert die Arbeitswelt
Künstliche Intelligenz verändert die
             Arbeitswelt

                              Prof. Dr.-Ing. Christian Märtin
               Professur für Rechnerarchitektur und Intelligente Systeme
                                  Hochschule Augsburg
                                 Fakultät für Informatik

                          Christian.Maertin@hs-augsburg.de
                                   maertin@ieee.org

              Regionaldirektion Bayern der Bundesagentur für Arbeit
         Der Mensch im Mittelpunkt der Digitalisierung, 22. September 2021

Bild: Forbes
Künstliche Intelligenz verändert die Arbeitswelt
Übersicht

Was ist Künstliche Intelligenz

Wo stehen wir heute?

Deep Learning – der kommerzielle Durchbruch
der KI

Anwendungsbeispiele

Wohin entwickelt sich die KI in den nächsten
Jahren?
Künstliche Intelligenz verändert die Arbeitswelt
Was ist Künstliche Intelligenz?
Künstliche Intelligenz verändert die Arbeitswelt
hitchBOT: per Anhalter 6000 Kilometer durch Kanada
Bild: © IEEE Spectrum 10/14
Künstliche Intelligenz verändert die Arbeitswelt
Intelligenz

Intelligenz (lat.: intelligentia = Einsicht,
Erkenntnisvermögen, intellegere = verstehen)

Im weitesten Sinne: Fähigkeit zum Erkennen
von Zusammenhängen und zum Finden von
optimalen Problemlösungen.
Künstliche Intelligenz verändert die Arbeitswelt
Künstliche Intelligenz (KI)
Artificial Intelligence (AI)
Definitionen (DFKI/Bitkom Positionspapier 2017)

Künstliche Intelligenz ist die Eigenschaft eines IT-Systems,
»menschenähnliche«, intelligente Verhaltensweisen zu
zeigen.

Künstliche Intelligenz beschreibt Informatik-Anwendungen,
deren Ziel es ist, intelligentes Verhalten zu zeigen. Dazu sind in
unterschiedlichen Anteilen bestimmte Kernfähigkeiten
notwendig: Wahrnehmen, Verstehen, Handeln und Lernen.

Schwache KI: Unterstützt den Menschen durch intelligente
Leistungen beim Erreichen seiner Ziele: Intelligente
Kommunikation und Kollaboration.

Starke KI: Versucht den Menschen zu imitieren oder zu
übertreffen (bisher noch Science Fiction, aber in 20 bis 30
Jahren?)
Künstliche Intelligenz verändert die Arbeitswelt
Mensch-Technik-Kooperation

Mensch-Roboter-Kooperation
Industrie 4.0

In solchen Umgebungen arbeiten
Menschen mit Robotern und intelligenten
Maschinen zusammen.

Quellen: © IEEE Intelligent Systems,
Sept./Oct. 2013; KUKA
Künstliche Intelligenz verändert die Arbeitswelt
Gartner Hype Cycle AI 2020
       Wann werden Innovationen produktiv einsetzbar?
                                Digitale Ethik
                                5-10 Jahre

Erwartungs-
                                                 Deep NNs
Achse            Smarte                          2-5 Jahre
                 Roboter
                                                                                 GPU-Hardware für KI-
                 5-10 Jahre
                                                                                 Anwendungen
                                                                 Insight         Bereits produktiv im
              Neuromorphe                                                        Einsatz
                                                                 Engines
              Hardware
                                                    Chatbots     2-5 Jahre
              2-5 Jahre
                              KI übernimmt          2-5 Jahre
                              selbst die
                              Verantwortung
                              5-10 Jahre
                                                     Voll-
                         Starke KI (wie              autonome
                         etwa im Film                Fahrzeuge
                         Ex Machina)                 >10 Jahre
                         >10 Jahre                                             Zeitachse

               Auslöser von     Gipfel der  Tal der        Anstieg zur       Plateau der
               Innovationen     erhöhten    Enttäuschunge Erleuchtung       Produktivität
                                Erwartungen n
   [vgl. www.gartner.com für mehr Infos zum AI Hype Cycle]
Künstliche Intelligenz verändert die Arbeitswelt
Wo stehen wir heute?

Entwicklungsphasen der KI

Quelle: W. Wahlster, DFKI 2017
Künstliche Intelligenz verändert die Arbeitswelt
Komponenten einer Künstlichen
Intelligenz

Quelle: Purdy, Daugherty 2016 übernommen aus BITKOM/DFKI KI-Positionspapier 2017
Simulation menschlicher
Intelligenz
Turing Test

(nach Alan Turing, 1950): Wenn mehr als 30% der
Gesprächspartner, die über Bildschirm und Tastatur mit
einem einem Gesprächspartner in einem anderen Raum
verbunden sind, diesen aufgrund des textuell,
natürlichsprachlichen Dialogs für einen Menschen
halten, obwohl es sich um ein Computerprogramm
handelt, dann hat das Programm den Test bestanden.

Der Test wurde erstmals im Juni 2014 von dem
Programm Eugene (ein sog. Chatbot) bestanden, das
sich für einen 13-jährigen Ukrainer namens Eugene
Goosman ausgab.
Turing Test
Die Frage ist, ob das Programm über tiefer gehendes
Denken (Common Sense Reasoning, Schluss-
folgerungsfähigkeiten) verfügen muss, um den Test zu
bestehen oder ob oberflächliche Datenabgleiche mit
Internetquellen und Wissensbasen genügen?

Ab 2015 werden daher Tests mit 40 sogenannten
Winograd Schemas aus unterschiedlichen
Wissensgebieten durchgeführt: Ein Beispiel:

The Trophy doesn‘t fit in the brown suitcase because it
is too big/small.

What ist too big/small?

(Quelle: IEEE Spectrum, 10/14)
Von Deep Blue zu Watson
Im Jahr 1997 schlug der IBM-Forschungsrechner
Deep Blue in einem Schachturnier mit insgesamt
sechs Spielen den damaligen Schachweltmeister
Garry Kasparov.

Deep Blue war ein Spezialrechner mit 30
IBM Power2-Prozessoren mit einer Taktfrequenz
von 120 MHz und 480 Spezialchips, um pro
Sekunde 200 Millionen möglicher Züge im Voraus zu
berechnen.

Bild: IBM
Von Deep Blue zu Watson
Im Jahr 2011 schlug IBM Watson zwei
der bekanntesten Jeopardy?-Champions.
Die Sendungen wurden im Fernsehen
ausgestrahlt und entsprechen etwa der
Show „Wer wird Millionär?“

Watson nutzt die Deep Question Answering Technology,
bei der 100 Verfahren zum Schlussfolgern, Hypothesen-
Aufstellen, Sprachverstehen, Quellenidentifikation und
Bewertung miteinander kombiniert werden. Er lernt laufend weiter
und verfügt über speziell aufbereitetes Wissen, das etwa 200
Millionen Buchseiten entspricht. Gleichartige Systeme werden
von IBM derzeit eingesetzt, um zusammen mit Ärzten die
                                                                   Hardware: 2880
Krebsforschung voran zu bringen. Es wird auch in den Bereichen
Business-Intelligence, Technischer Support und Vergleich von       Power7-Kerne,
juristischen Schriften eingesetzt.                                 3,53 GHz
                                                                   Taktfrequenz und
Heute steht die Watson-Cloud weltweit Unternehmen für KI-          16 Terabyte
Dienstleistungen zur Verfügung: Medizin, Spracherkennung,          Hauptspeicher
Übersetzungen, Big Data, Data Analytics, …
                                                                   Bild: IBM
Von Watson zu AlphaGo
Im Jahr 2016 besiegte das Go-Programm AlphaGo von Google den weltbesten
Spieler Lee Sedol mehrfach hintereinander.

Das Programm nutzt ein Deep Neural Network und lernte zunächst von
menschlichen Experten. Es wurde zuerst mit Supervised Learning trainiert.
Danach spielten verschiedene Versionen gegeneinander und trainierten sich
selbst (Reinforcement Learning: Gewinnbringende Strategien werden belohnt
und erlernt). Aus vielen Spielen gegen sich selbst entstand danach ein immer
besser werdendes Strategienetzwerk, das den Wert von Zügen und Taktiken in
aktuellen Situationen erkennen und entsprechend reagieren kann.

Damit erreichte AlphaGo Welt-Champion-Niveau. Heute kann es für
verschiedenste Deep-Learning-Modelle verwendet werden.
Deep Learning – Der große Durchbruch der
Künstlichen Intelligenz im letzten Jahrzehnt
•   Deep Learning simuliert mit künstlichen neuronalen Netzen (KNNs)
    Gehirnstrukturen
•   KNNs existieren bereits seit den1940er Jahren (McCulloch, Pitts:
    Perzeptron, Bild Wikipedia)

•   Eine erste Erfolgswelle der KNNs erfolgte in den 1980er Jahren (Schrift-
    und Mustererkennung) – Multilayer-Perzeptron
•   Deep Learning nutzt große, trainierbare mehrschichtige KNNs
•   Der jetzige Durchbruch wurde erst durch die heute verfügbare
    Rechenleistung und speziell entwickelte (neuromorphe) Hardware
    ermöglicht
•   Die größten heute verfügbaren KNNs haben die Komplexität der Gehirne
    von Vögeln (Krähen) oder kleinen Säugetieren
Deep Learning – Grundlagen

                         Bildquellen: Shutterstock;
                         Liam Zinth: Neuromorphic Computing,
                         Vortrag, HSA 2019
Deep Learning – Grundlagen

Das Netz lernt, indem beim Trainieren die gewünschte Ausgabe mit der tatsächlichen
Ausgabe verglichen wird. Durch iteriertes Ändern der Gewichte von Output zu Input
(Backpropagation) wird das Netz so trainiert, so dass nach vielen Trainingszyklen bei Eingabe
einer handschriftlichen Ziffer, das korrekte Ausgabeneuron aktiviert wird.
Bildquelle: Dr. Christian Wiele, Slideshare 2017
Deep Learning – Grundlagen

•    Das menschliche Gehirn arbeitet sehr energieeffizient
Die Gründe - Stromverbrauch

    1012 to 1028 FLOPS.        200 PetaFLOPS = 200*1015 FLOPS
        20 W                             10,096 kW                  ~ 500.000
                                                      Liam Zinth: Neuromorphic Computing,
                                                      Vortrag, HSA 2019
Neuromorphic Computing:
IBM True North

Pro Chip 5,4 Mrd Transistoren, 1 Million künstliche Neuronen, 256 Millionen
Verbindungen zwischen Neuronen, nur 70 mW el. Leistungsaufnahme
Bild: © Computer, Sept. 2014
Neuromorphic Computing:
Intel Loihi und Pohoiki Beach
                                              Pro Loihi-Chip 2 Mrd Transistoren

                                              Die Pohoiki-Beach Plattform mit 64 Chips
                                              simuliert 8,3 Millionen künstliche (sehr
                                              realistisch arbeitende) Neuronen
                                              (Nervenzellen) und 8 Mrd. Synapsen.

                                              Skalierbarkeit bis zu 16.384 Chips, d.h.
                                              bis ca. 2 Mrd Neuronen
Bisherige Anwendungen:
• Autonome Roboter (Turtle2)
• Steuerung künstlicher Armprothesen

1000-fach höhere Rechenleistung als konventionelle CPUs bei KNN-Simulation
10.000-fache Verbesserung der Energieeffizienz gegenüber Standard-CPUs
Das ist auch dringend erforderlich: Bisher erzeugt das Training einer KI zur
Spracherkennung (z.B. Cortana, Alexa) fünfmal soviel CO2 wie ein Auto in
seiner kompletten Lebensdauer (Studie U. Massachusetts).                 Bildquelle Intel
Hardware für Neuronale Netze: Google TPU

Google Tensor Processing Unit (TPU) erreicht 92 Billionen Rechenoperationen
pro Sekunde als trainiertes künstliches Neuronales Netz. Mit mehreren solchen Platinen
arbeitet z.B. AlphaGo. Als Cloud-Lösung sind TPUs bei Google für externe Anwender
verfügbar.                                                  Bildquelle Google
Hardware für Neuronale Netze:
Cerebras‘ CS-2 Wafer Scale Engine mit
2,6 Billionen Transistoren und 850.000 Cores auf einem
Wafer-size Chip!

Bildquelle: Cerebras CS-2 Whitepaper (2021)
KI-Beispielanwendungen
KI-Dienstleistungen für externe Kunden
am Beispiel der IBM Watson-Cloud
IBM bietet seine Expertise an, um KI für andere Unternehmen
nutzbar zu machen. Beispiele:
• Sprachverarbeitung: Text to Speech, Speech to Text,
   Übersetzung von Dokumenten, Textanalyse- und Klassifikation,
   Verstehen natürlicher Sprache, Erkennen von Stimmungen,
   Emotionen und Persönlichkeitsmerkmalen durch Textanalyse
• Watson Assistant: Umgebung, um eigene Chatbots und virtuelle
   Assistenten zu erstellen
• Watson Visual Recognition: Klassifikation visueller Inhalte
• Watson Studio: Umgebung für Machine Learning und Deep
   Learning, um eigene lernfähige KI-Modelle zu entwerfen und
   bewährte Neuronale Netze für eigene Anwendungen zu nutzen
• Discovery und Refinery: (Big) Data Analyse und
   Datenaufbereitung
[vgl. https://www.ibm.com/de-de/watson]
Moderne Spracherkennung nutzt
Neuronale Netze

Auch für die Erkennung gesprochener Sprache werden auf allen Ebenen künstliche
Neuronale Netze eingesetzt. Dabei ist vor allem auch der zeitliche Aspekt und der
stets wechselnde Kontext zu beachten. Teilweise werden dazu rückgekoppelte NNs
verwendet, die wie ein Kurzeitgedächtnis arbeiten.
Bildquelle: Google
Autonomes Fahren
Google, Tesla, Mercedes, BMW, Volvo und mehrere
andere Automobilhersteller arbeiten am autonomen
Fahrzeug, das fahrerlos am regulären Verkehr
teilnehmen kann. Zahlreiche Assistenzsysteme (z.B.
Mercedes: Distronic Plus, Kollisionsvermeidung,
Totwinkel-Assistent, Lenkassistent, etc.) sind schon jetzt
im Einsatz.

Das Google-Car war das erste Auto, das in einem
U.S.Bundesstaat (Nevada) eine Fahrerlaubnis erhielt.
Inzwischen ist es auch in Kalifornien zugelassen.

Autos werden immer mehr zu fahrenden Computern.
Beispielsweise fährt ein Tesla erst los, wenn sein Linux-
Betriebssystem hochgefahren wurde.
Bild-Quelle:
http://spectrum.ieee.org/transportation/advanced-cars/how-googles-autonomous-car-
passed-the-first-us-state-selfdriving-test
Bildverarbeitung für autonomes Fahren
   •     Convolutional Neural Networks (CNNs)

Schrittweise Analyse und Klassifikation von einfachen Formen und Texturen zu immer
komplexeren Mustern und Objekten. Ein Netz kann eine Vielzahl von Objekten erkennen.
Dazu müssen alle Schichten aufwendig mit „gelabelten“ Beispieldaten trainiert und die
Leistungsfähigkeit mit Testdaten evaluiert werden.
Bildquelle: Shutterstock
Autonomes Fahren:
Die KI muss präzise entscheiden können, was voll autonom möglich ist oder
wo der Fahrer eingreifen muss

Übersichtliche Situation, z.B. für        Komplexere Situation mit
Spurwechsel                               unklaren Spuren und
                                          Fußgängern

  Bildquelle: Shutterstock
Anwendungen aus dem Bereich Visuelles Erkennen

Quelle: Mess, E., Rockstein, D., Märtin, C.: FaceForward, An AI-based Interactive System for
Exploring the Personal Potential, Proc. HCII 2020, Springer LNCS 12183, (2020)
Anwendungen aus dem Bereich Visuelles Erkennen
   Psycho-Physiognomik: Umstrittene Methode zur Einschätzung von
   Charaktereigenschaften

Quelle: Mess, E., Rockstein, D., Märtin, C.: FaceForward, An AI-based Interactive System for
Exploring the Personal Potential, Proc. HCII 2020, Springer LNCS 12183, (2020)
Anwendungen aus dem Bereich Visuelles Erkennen
   Psycho-Physiognomik: Umstrittene Methode zur Einschätzung von
   Charaktereigenschaften

Quelle: Mess, E., Rockstein, D., Märtin, C.: FaceForward, An AI-based Interactive System for
Exploring the Personal Potential, Proc. HCII 2020, Springer LNCS 12183, (2020)
Visuelle Emotionserkennung
• Facial Action Coding System

    Quelle: Facial Action Coding System (FACS), Noldus Whitepaper, noldus.com (2020)
Visuelle Emotionserkennung
• Erkennen der 6 Basis-Emotionen

   Quelle: , Loijens, L. & Krips. O., Facereader Methodology Note, Whitepaper, noldus.com (2020)
Digitales Marketing
•    Visuelle Emotionserkennung ermöglicht situationsbasierte Reaktionen auf
     Emotionen von Benutzern

Quelle: Märtin, C., Bissinger, B., Asta, P.: Optimizing the digital customer journey – Improving user experience
by exploiting emotions, personas and situations for individualized user interface adaptations, J Consumer Behav.
2021; 1-12, wileyonlinelibrary.com /journal/cb
Was wird KI verändern?
Gegensätzliche Sichtweisen

Wird uns die KI genau die Tätigkeiten abnehmen, die
ohnehin unbeliebt sind
         oder
werden sich so viele Dinge automatisieren lassen, dass
nicht mehr genügend Aufgaben für menschliche Arbeit
übrig bleiben?

Einordnung der bevorstehenden Disruptionen

Bisher hat uns die industrielle Revolution vor allem
künstliche Muskeln beschert,
nun wird sie uns künstliche Gehirne liefern.
→ Künstliche Intelligenzen werden uns überall und
jederzeit zur Verfügung stehen
(vgl. Jan Tißler, Automatisierung und Intelligenz, UPLOAD-Magazin, 6.08.2017)
Was wird KI verändern?
Beispielbereiche, die sich durch KI fundamental ändern werden

• Industrieautomatisierung – selbstlernende Automaten und Maschinen
• Digital Business – Digital Marketing, automatisierter Kundensupport durch
  intelligente Chatbots, Predictive Customer Relationship Management,
  Bedürfnislenkung durch Prescriptive E-Business
• Journalismus – Systeme, die selbständig Artikel schreiben
• Ressourcen, Umwelt und Gesundheit – Selbständige Auswertung der
  gigantischen Datenmengen durch KI-Systeme, um ökologische, Ressourcen-
  und gesundheitliche Probleme zu lösen
• Mobilität und Logistik – Autonome Fahrzeuge, Steuerung der Verkehrs- und
  Logistik-Infrastrukturen
• Überwachung der Gesellschaft durch bilderkennende KI-Systeme (siehe China)
• KI-gesteuerte Waffensysteme (z.B. Drohnen mit Gesichtserkennung)
• Finanzmärkte: KI-Fonds, KI-Startups als große Investmentchancen

(vgl. Jan Tißler, Automatisierung und Intelligenz, UPLOAD-Magazin, 6.08.2017 und
Tobias Kollmann, Was Künstliche Intelligenz verändert? Alles! Manager Magazin, Online-Ausgabe, Januar 2020)
Was steht uns bevor?

Künstliche Intelligenzen können in vielen Bereichen zu
nützlichen und sogar wertvollen Partnern des Menschen
werden. Sie verstärken durch ihre Fähigkeiten die
Problemlösungskompetenz des Menschen.

Werden wir in naher Zukunft zu Schöpfern einer
eigenen künstlich intelligenten und autonomen Spezies
werden, die uns hilft die Probleme der Menschheit zu
lösen oder bleiben wir bald als Zauberlehrlinge zurück?

→ KI-Ethik
→ Regulierung der KI durch die EU-
  Kommission
Vielen Dank!
          Vielen Dank!

Bild: Shutterstock
Sie können auch lesen