Künstliche Intelligenz verändert die Arbeitswelt
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Künstliche Intelligenz verändert die Arbeitswelt Prof. Dr.-Ing. Christian Märtin Professur für Rechnerarchitektur und Intelligente Systeme Hochschule Augsburg Fakultät für Informatik Christian.Maertin@hs-augsburg.de maertin@ieee.org Regionaldirektion Bayern der Bundesagentur für Arbeit Der Mensch im Mittelpunkt der Digitalisierung, 22. September 2021 Bild: Forbes
Übersicht Was ist Künstliche Intelligenz Wo stehen wir heute? Deep Learning – der kommerzielle Durchbruch der KI Anwendungsbeispiele Wohin entwickelt sich die KI in den nächsten Jahren?
Intelligenz Intelligenz (lat.: intelligentia = Einsicht, Erkenntnisvermögen, intellegere = verstehen) Im weitesten Sinne: Fähigkeit zum Erkennen von Zusammenhängen und zum Finden von optimalen Problemlösungen.
Künstliche Intelligenz (KI) Artificial Intelligence (AI) Definitionen (DFKI/Bitkom Positionspapier 2017) Künstliche Intelligenz ist die Eigenschaft eines IT-Systems, »menschenähnliche«, intelligente Verhaltensweisen zu zeigen. Künstliche Intelligenz beschreibt Informatik-Anwendungen, deren Ziel es ist, intelligentes Verhalten zu zeigen. Dazu sind in unterschiedlichen Anteilen bestimmte Kernfähigkeiten notwendig: Wahrnehmen, Verstehen, Handeln und Lernen. Schwache KI: Unterstützt den Menschen durch intelligente Leistungen beim Erreichen seiner Ziele: Intelligente Kommunikation und Kollaboration. Starke KI: Versucht den Menschen zu imitieren oder zu übertreffen (bisher noch Science Fiction, aber in 20 bis 30 Jahren?)
Mensch-Technik-Kooperation Mensch-Roboter-Kooperation Industrie 4.0 In solchen Umgebungen arbeiten Menschen mit Robotern und intelligenten Maschinen zusammen. Quellen: © IEEE Intelligent Systems, Sept./Oct. 2013; KUKA
Gartner Hype Cycle AI 2020 Wann werden Innovationen produktiv einsetzbar? Digitale Ethik 5-10 Jahre Erwartungs- Deep NNs Achse Smarte 2-5 Jahre Roboter GPU-Hardware für KI- 5-10 Jahre Anwendungen Insight Bereits produktiv im Neuromorphe Einsatz Engines Hardware Chatbots 2-5 Jahre 2-5 Jahre KI übernimmt 2-5 Jahre selbst die Verantwortung 5-10 Jahre Voll- Starke KI (wie autonome etwa im Film Fahrzeuge Ex Machina) >10 Jahre >10 Jahre Zeitachse Auslöser von Gipfel der Tal der Anstieg zur Plateau der Innovationen erhöhten Enttäuschunge Erleuchtung Produktivität Erwartungen n [vgl. www.gartner.com für mehr Infos zum AI Hype Cycle]
Komponenten einer Künstlichen Intelligenz Quelle: Purdy, Daugherty 2016 übernommen aus BITKOM/DFKI KI-Positionspapier 2017
Simulation menschlicher Intelligenz Turing Test (nach Alan Turing, 1950): Wenn mehr als 30% der Gesprächspartner, die über Bildschirm und Tastatur mit einem einem Gesprächspartner in einem anderen Raum verbunden sind, diesen aufgrund des textuell, natürlichsprachlichen Dialogs für einen Menschen halten, obwohl es sich um ein Computerprogramm handelt, dann hat das Programm den Test bestanden. Der Test wurde erstmals im Juni 2014 von dem Programm Eugene (ein sog. Chatbot) bestanden, das sich für einen 13-jährigen Ukrainer namens Eugene Goosman ausgab.
Turing Test Die Frage ist, ob das Programm über tiefer gehendes Denken (Common Sense Reasoning, Schluss- folgerungsfähigkeiten) verfügen muss, um den Test zu bestehen oder ob oberflächliche Datenabgleiche mit Internetquellen und Wissensbasen genügen? Ab 2015 werden daher Tests mit 40 sogenannten Winograd Schemas aus unterschiedlichen Wissensgebieten durchgeführt: Ein Beispiel: The Trophy doesn‘t fit in the brown suitcase because it is too big/small. What ist too big/small? (Quelle: IEEE Spectrum, 10/14)
Von Deep Blue zu Watson Im Jahr 1997 schlug der IBM-Forschungsrechner Deep Blue in einem Schachturnier mit insgesamt sechs Spielen den damaligen Schachweltmeister Garry Kasparov. Deep Blue war ein Spezialrechner mit 30 IBM Power2-Prozessoren mit einer Taktfrequenz von 120 MHz und 480 Spezialchips, um pro Sekunde 200 Millionen möglicher Züge im Voraus zu berechnen. Bild: IBM
Von Deep Blue zu Watson Im Jahr 2011 schlug IBM Watson zwei der bekanntesten Jeopardy?-Champions. Die Sendungen wurden im Fernsehen ausgestrahlt und entsprechen etwa der Show „Wer wird Millionär?“ Watson nutzt die Deep Question Answering Technology, bei der 100 Verfahren zum Schlussfolgern, Hypothesen- Aufstellen, Sprachverstehen, Quellenidentifikation und Bewertung miteinander kombiniert werden. Er lernt laufend weiter und verfügt über speziell aufbereitetes Wissen, das etwa 200 Millionen Buchseiten entspricht. Gleichartige Systeme werden von IBM derzeit eingesetzt, um zusammen mit Ärzten die Hardware: 2880 Krebsforschung voran zu bringen. Es wird auch in den Bereichen Business-Intelligence, Technischer Support und Vergleich von Power7-Kerne, juristischen Schriften eingesetzt. 3,53 GHz Taktfrequenz und Heute steht die Watson-Cloud weltweit Unternehmen für KI- 16 Terabyte Dienstleistungen zur Verfügung: Medizin, Spracherkennung, Hauptspeicher Übersetzungen, Big Data, Data Analytics, … Bild: IBM
Von Watson zu AlphaGo Im Jahr 2016 besiegte das Go-Programm AlphaGo von Google den weltbesten Spieler Lee Sedol mehrfach hintereinander. Das Programm nutzt ein Deep Neural Network und lernte zunächst von menschlichen Experten. Es wurde zuerst mit Supervised Learning trainiert. Danach spielten verschiedene Versionen gegeneinander und trainierten sich selbst (Reinforcement Learning: Gewinnbringende Strategien werden belohnt und erlernt). Aus vielen Spielen gegen sich selbst entstand danach ein immer besser werdendes Strategienetzwerk, das den Wert von Zügen und Taktiken in aktuellen Situationen erkennen und entsprechend reagieren kann. Damit erreichte AlphaGo Welt-Champion-Niveau. Heute kann es für verschiedenste Deep-Learning-Modelle verwendet werden.
Deep Learning – Der große Durchbruch der Künstlichen Intelligenz im letzten Jahrzehnt • Deep Learning simuliert mit künstlichen neuronalen Netzen (KNNs) Gehirnstrukturen • KNNs existieren bereits seit den1940er Jahren (McCulloch, Pitts: Perzeptron, Bild Wikipedia) • Eine erste Erfolgswelle der KNNs erfolgte in den 1980er Jahren (Schrift- und Mustererkennung) – Multilayer-Perzeptron • Deep Learning nutzt große, trainierbare mehrschichtige KNNs • Der jetzige Durchbruch wurde erst durch die heute verfügbare Rechenleistung und speziell entwickelte (neuromorphe) Hardware ermöglicht • Die größten heute verfügbaren KNNs haben die Komplexität der Gehirne von Vögeln (Krähen) oder kleinen Säugetieren
Deep Learning – Grundlagen Bildquellen: Shutterstock; Liam Zinth: Neuromorphic Computing, Vortrag, HSA 2019
Deep Learning – Grundlagen Das Netz lernt, indem beim Trainieren die gewünschte Ausgabe mit der tatsächlichen Ausgabe verglichen wird. Durch iteriertes Ändern der Gewichte von Output zu Input (Backpropagation) wird das Netz so trainiert, so dass nach vielen Trainingszyklen bei Eingabe einer handschriftlichen Ziffer, das korrekte Ausgabeneuron aktiviert wird. Bildquelle: Dr. Christian Wiele, Slideshare 2017
Deep Learning – Grundlagen • Das menschliche Gehirn arbeitet sehr energieeffizient Die Gründe - Stromverbrauch 1012 to 1028 FLOPS. 200 PetaFLOPS = 200*1015 FLOPS 20 W 10,096 kW ~ 500.000 Liam Zinth: Neuromorphic Computing, Vortrag, HSA 2019
Neuromorphic Computing: IBM True North Pro Chip 5,4 Mrd Transistoren, 1 Million künstliche Neuronen, 256 Millionen Verbindungen zwischen Neuronen, nur 70 mW el. Leistungsaufnahme Bild: © Computer, Sept. 2014
Neuromorphic Computing: Intel Loihi und Pohoiki Beach Pro Loihi-Chip 2 Mrd Transistoren Die Pohoiki-Beach Plattform mit 64 Chips simuliert 8,3 Millionen künstliche (sehr realistisch arbeitende) Neuronen (Nervenzellen) und 8 Mrd. Synapsen. Skalierbarkeit bis zu 16.384 Chips, d.h. bis ca. 2 Mrd Neuronen Bisherige Anwendungen: • Autonome Roboter (Turtle2) • Steuerung künstlicher Armprothesen 1000-fach höhere Rechenleistung als konventionelle CPUs bei KNN-Simulation 10.000-fache Verbesserung der Energieeffizienz gegenüber Standard-CPUs Das ist auch dringend erforderlich: Bisher erzeugt das Training einer KI zur Spracherkennung (z.B. Cortana, Alexa) fünfmal soviel CO2 wie ein Auto in seiner kompletten Lebensdauer (Studie U. Massachusetts). Bildquelle Intel
Hardware für Neuronale Netze: Google TPU Google Tensor Processing Unit (TPU) erreicht 92 Billionen Rechenoperationen pro Sekunde als trainiertes künstliches Neuronales Netz. Mit mehreren solchen Platinen arbeitet z.B. AlphaGo. Als Cloud-Lösung sind TPUs bei Google für externe Anwender verfügbar. Bildquelle Google
Hardware für Neuronale Netze: Cerebras‘ CS-2 Wafer Scale Engine mit 2,6 Billionen Transistoren und 850.000 Cores auf einem Wafer-size Chip! Bildquelle: Cerebras CS-2 Whitepaper (2021)
KI-Beispielanwendungen
KI-Dienstleistungen für externe Kunden am Beispiel der IBM Watson-Cloud IBM bietet seine Expertise an, um KI für andere Unternehmen nutzbar zu machen. Beispiele: • Sprachverarbeitung: Text to Speech, Speech to Text, Übersetzung von Dokumenten, Textanalyse- und Klassifikation, Verstehen natürlicher Sprache, Erkennen von Stimmungen, Emotionen und Persönlichkeitsmerkmalen durch Textanalyse • Watson Assistant: Umgebung, um eigene Chatbots und virtuelle Assistenten zu erstellen • Watson Visual Recognition: Klassifikation visueller Inhalte • Watson Studio: Umgebung für Machine Learning und Deep Learning, um eigene lernfähige KI-Modelle zu entwerfen und bewährte Neuronale Netze für eigene Anwendungen zu nutzen • Discovery und Refinery: (Big) Data Analyse und Datenaufbereitung [vgl. https://www.ibm.com/de-de/watson]
Moderne Spracherkennung nutzt Neuronale Netze Auch für die Erkennung gesprochener Sprache werden auf allen Ebenen künstliche Neuronale Netze eingesetzt. Dabei ist vor allem auch der zeitliche Aspekt und der stets wechselnde Kontext zu beachten. Teilweise werden dazu rückgekoppelte NNs verwendet, die wie ein Kurzeitgedächtnis arbeiten. Bildquelle: Google
Autonomes Fahren Google, Tesla, Mercedes, BMW, Volvo und mehrere andere Automobilhersteller arbeiten am autonomen Fahrzeug, das fahrerlos am regulären Verkehr teilnehmen kann. Zahlreiche Assistenzsysteme (z.B. Mercedes: Distronic Plus, Kollisionsvermeidung, Totwinkel-Assistent, Lenkassistent, etc.) sind schon jetzt im Einsatz. Das Google-Car war das erste Auto, das in einem U.S.Bundesstaat (Nevada) eine Fahrerlaubnis erhielt. Inzwischen ist es auch in Kalifornien zugelassen. Autos werden immer mehr zu fahrenden Computern. Beispielsweise fährt ein Tesla erst los, wenn sein Linux- Betriebssystem hochgefahren wurde. Bild-Quelle: http://spectrum.ieee.org/transportation/advanced-cars/how-googles-autonomous-car- passed-the-first-us-state-selfdriving-test
Bildverarbeitung für autonomes Fahren • Convolutional Neural Networks (CNNs) Schrittweise Analyse und Klassifikation von einfachen Formen und Texturen zu immer komplexeren Mustern und Objekten. Ein Netz kann eine Vielzahl von Objekten erkennen. Dazu müssen alle Schichten aufwendig mit „gelabelten“ Beispieldaten trainiert und die Leistungsfähigkeit mit Testdaten evaluiert werden. Bildquelle: Shutterstock
Autonomes Fahren: Die KI muss präzise entscheiden können, was voll autonom möglich ist oder wo der Fahrer eingreifen muss Übersichtliche Situation, z.B. für Komplexere Situation mit Spurwechsel unklaren Spuren und Fußgängern Bildquelle: Shutterstock
Anwendungen aus dem Bereich Visuelles Erkennen Quelle: Mess, E., Rockstein, D., Märtin, C.: FaceForward, An AI-based Interactive System for Exploring the Personal Potential, Proc. HCII 2020, Springer LNCS 12183, (2020)
Anwendungen aus dem Bereich Visuelles Erkennen Psycho-Physiognomik: Umstrittene Methode zur Einschätzung von Charaktereigenschaften Quelle: Mess, E., Rockstein, D., Märtin, C.: FaceForward, An AI-based Interactive System for Exploring the Personal Potential, Proc. HCII 2020, Springer LNCS 12183, (2020)
Anwendungen aus dem Bereich Visuelles Erkennen Psycho-Physiognomik: Umstrittene Methode zur Einschätzung von Charaktereigenschaften Quelle: Mess, E., Rockstein, D., Märtin, C.: FaceForward, An AI-based Interactive System for Exploring the Personal Potential, Proc. HCII 2020, Springer LNCS 12183, (2020)
Visuelle Emotionserkennung • Facial Action Coding System Quelle: Facial Action Coding System (FACS), Noldus Whitepaper, noldus.com (2020)
Visuelle Emotionserkennung • Erkennen der 6 Basis-Emotionen Quelle: , Loijens, L. & Krips. O., Facereader Methodology Note, Whitepaper, noldus.com (2020)
Digitales Marketing • Visuelle Emotionserkennung ermöglicht situationsbasierte Reaktionen auf Emotionen von Benutzern Quelle: Märtin, C., Bissinger, B., Asta, P.: Optimizing the digital customer journey – Improving user experience by exploiting emotions, personas and situations for individualized user interface adaptations, J Consumer Behav. 2021; 1-12, wileyonlinelibrary.com /journal/cb
Was wird KI verändern? Gegensätzliche Sichtweisen Wird uns die KI genau die Tätigkeiten abnehmen, die ohnehin unbeliebt sind oder werden sich so viele Dinge automatisieren lassen, dass nicht mehr genügend Aufgaben für menschliche Arbeit übrig bleiben? Einordnung der bevorstehenden Disruptionen Bisher hat uns die industrielle Revolution vor allem künstliche Muskeln beschert, nun wird sie uns künstliche Gehirne liefern. → Künstliche Intelligenzen werden uns überall und jederzeit zur Verfügung stehen (vgl. Jan Tißler, Automatisierung und Intelligenz, UPLOAD-Magazin, 6.08.2017)
Was wird KI verändern? Beispielbereiche, die sich durch KI fundamental ändern werden • Industrieautomatisierung – selbstlernende Automaten und Maschinen • Digital Business – Digital Marketing, automatisierter Kundensupport durch intelligente Chatbots, Predictive Customer Relationship Management, Bedürfnislenkung durch Prescriptive E-Business • Journalismus – Systeme, die selbständig Artikel schreiben • Ressourcen, Umwelt und Gesundheit – Selbständige Auswertung der gigantischen Datenmengen durch KI-Systeme, um ökologische, Ressourcen- und gesundheitliche Probleme zu lösen • Mobilität und Logistik – Autonome Fahrzeuge, Steuerung der Verkehrs- und Logistik-Infrastrukturen • Überwachung der Gesellschaft durch bilderkennende KI-Systeme (siehe China) • KI-gesteuerte Waffensysteme (z.B. Drohnen mit Gesichtserkennung) • Finanzmärkte: KI-Fonds, KI-Startups als große Investmentchancen (vgl. Jan Tißler, Automatisierung und Intelligenz, UPLOAD-Magazin, 6.08.2017 und Tobias Kollmann, Was Künstliche Intelligenz verändert? Alles! Manager Magazin, Online-Ausgabe, Januar 2020)
Was steht uns bevor? Künstliche Intelligenzen können in vielen Bereichen zu nützlichen und sogar wertvollen Partnern des Menschen werden. Sie verstärken durch ihre Fähigkeiten die Problemlösungskompetenz des Menschen. Werden wir in naher Zukunft zu Schöpfern einer eigenen künstlich intelligenten und autonomen Spezies werden, die uns hilft die Probleme der Menschheit zu lösen oder bleiben wir bald als Zauberlehrlinge zurück? → KI-Ethik → Regulierung der KI durch die EU- Kommission
Vielen Dank! Vielen Dank! Bild: Shutterstock
Sie können auch lesen