Forecasting mit Artificial Intelligence - Gerard de Melo
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Te chn ologie & M e nsch Forecasting mit Artificial Intelligence Mit modernen Methoden der künstlichen Intelligenz können anhand enormer Datenmengen in kürzester Zeit neue Prognosen und Handlungsempfehlungen generiert werden. In der heutigen Welt, die von Komplexität und Schnelllebigkeit gekennzeichnet ist, eröffnen sich so neue Perspektiven für das Forecasting. Text — Nicole de Melo, Prof. Dr. Ing. Gerard de Melo P lanung und Forecasting sind seit jeher Potenzial birgt. Dieser Beitrag bietet einen Über- unabdingbar für eine effiziente Unter- blick zu technischen Verfahren des Forecastings nehmenssteuerung. Sich schnell auf Ver- mit Fokus auf aktuelle und zukünftige Anwen- änderungen einstellen zu können, für die Zukunft dungsbereiche von AI. Dafür werden zunächst zu planen und entsprechende Maßnahmen zu einfachere, klassische Verfahren eingeführt und treffen, hat in der aktuellen Wirtschaftslage noch im Weiteren verschiedene innovative Forecas- Nicole de Melo einmal an Bedeutung gewonnen. Eine effektive, ting-Methoden erörtert, die einen besseren ist Senior Consultant im zeitnahe und genaue Forecast- und Planungs- Umgang mit Volatilität, Unsicherheit, Komplexi- Bereich EMEIA Financial Services bei der Ernst & technik schafft Transparenz, zeigt drohende tät sowie Mehrdeutigkeit versprechen. Young GmbH Wirtschafts- Zahlungsunsicherheiten auf und ist ein gutes prüfungsgesellschaft. Instrument, um informierte Entscheidungen Einfaches Forecasting treffen zu können. Das mit Abstand einfachste Forecasting-Verfah- ren ist die Annahme eines konstanten Niveaus, Zugleich lässt sich beobachten, wie Artificial das auf unbestimmte Zeit weiter Bestand hat. Intelligence (AI, künstliche Intelligenz) in Wirt- Tatsächlich ist es in vielen alltäglichen Situatio- schaft und Politik als strategisch besonders wich- nen nicht abwegig, den zuletzt beobachteten Wert tiges Thema zur Aufrechterhaltung der Wett- als Prognose für die Zukunft heranzuziehen oder bewerbsfähigkeit erkannt wird. Entsprechende auch einen Mittelwert von vergangenen Werten Systeme, die intelligentes Verhalten an den Tag zu bilden. Beispielsweise können die Verwal- Prof. Dr. Ing. Gerard legen, erhalten bereits Einzug in den Alltag. Von tungsausgaben des letzten Monats oft eine gute de Melo automatisierten Preisanpassungen über sprach- Basis zur Schätzung der entsprechenden Ausga- leitet das Fachgebiet Artificial Intelligence and gesteuerte Produkte bis hin zu selbstfahrenden ben in den darauffolgenden Monaten darstellen. Intelligent Systems am Lkws: Hintergrund der rasanten Entwicklungen Hasso-Plattner-Institut in diesen Bereichen sind markante Fortschritte Vernachlässigt wird hier natürlich, dass es auch (HPI) und an der Universität Potsdam. in der Erkennung komplexer Muster in großen eine relevante Trendentwicklung geben kann wie Datenmengen durch rechenintensive numerische etwa ein jährliches Wachstum. Die einfachste Kalkulationen. Von daher ist es naheliegend, dass Methode zur Berücksichtigung eines Trends ist AI gerade auch im Forecasting ein sehr großes eine lineare Extrapolation. Hier wird zwischen 24 Re thinking Finan ce 2 . 2 02 1 April 2 02 1
Te chn ologie & M e nsch zwei Zeitpunkten die Steigung ermittelt und fortan wird angenommen, dass diese unverän- dert weiter bestehen bleibt, d.h. es reicht das Ziehen einer geraden Linie mit einem Lineal, um Moderne AI-basierte Fore ein Forecast zu erhalten. Durch Bezugnahme auf weitere Punkte in der Vergangenheit werden casting-Techniken ermöglichen die Daten belastbarer. In diesem Fall kann z.B. mittels einer linearen Regression eine optimale eine gemeinsame Modellierung Gerade bestimmt werden. vieler Tausender Datensätze Die meisten Zeitreihen haben jedoch nicht die Gestalt einer Geraden, sondern weisen eine erheb- auf mehreren Ebenen. liche Volatilität auf. Darüber hinaus sollte man sich nicht zu sehr auf kurzfristige Trendentwicklungen stützen. Häufig, insbesondere im Finanzbereich, Gewicht zukommt als älteren. Noch verlässlicher werden Daten nach Kalenderjahren organisiert. ist eine automatisierte Gewichtung anhand der Wird jedoch anhand der täglichen Daten aus beobachteten Daten, falls sich etwa herausstellt, einem Jahr ein Forecasting durchgeführt, kann dass der Vorjahreswert stets eine deutlich höhere es leicht passieren, dass das Modell von einem Übereinstimmung mit den aktuellen Werten Abwärtstrend im Januar ausgeht, da es zwischen bietet als der Vormonatswert. In diesem Fall wird den Jahren in vielen Bereichen sehr ruhig wird von einer Autoregression gesprochen. Viele der und die jüngsten Zahlen vom Ende des Vorjahrs bekanntesten klassischen Forecasting-Metho- dementsprechend noch stark nach unten weisen. den basieren auf dieser Idee, darunter z.B. ARMA (Autoregressive Moving Average) sowie das Saisonale und zyklische Entwicklungen darauf aufbauende ARIMA-Verfahren (Autore- ARMA und ARIMA sind In natürlich vorkommenden Daten finden sich gressive Integrated Moving Average). weit verbreitete Ver- fahren zum Forecasting allerlei periodische Entwicklungen. Innerhalb von Zeitreihen. Sie eines Monats kann die Nachfrage von Waren Viele Daten sind nicht ganz so regelmäßig, wie verwenden einerseits variieren und besonders am Monatsanfang oder man es sich vielleicht wünscht. So können ver- vergangene Werte aus der Zeitreihe (Autore- -ende hoch sein, wenn Gehaltszahlungen eintref- schiedene Konjunkturzyklen unterschiedliche gressionskomponente), fen. Auch können Quartale eine unterschiedliche Charakteristika aufweisen und gewisse kurze andererseits auch Nachfrage aufweisen. So beinhaltet das vierte Perioden können von einer besonders hohen Vola- vergangene Schätz- fehler (Moving-Avera- Quartal besonders viele umsatzstarke Tage wie tilität gekennzeichnet sein. Wünschenswert sind ge-Komponente). Im „Black Friday“, „Cyber Monday“ und die Vorweih- im Allgemeinen Verfahren, die auch eine Überla- Unterschied zum AR- nachtszeit. Um derartiger Periodizität gerecht gerung heterogener Trends und Schwankungen MA-Verfahren kann bei ARIMA darüber hinaus zu werden, kann in einfachen Fällen ermittelt sowie Trendwenden identifizieren können. Wenn noch eine Differenzen- werden, inwiefern die betrachtete Zeitreihe mit hinreichend viele historische Daten vorhanden bildung erfolgen, so einer zeitlich verschobenen Version derselben sind, können derartige Phänomene eventuell dass die Modellierung sich nicht direkt auf die Zeitreihe korreliert. Dies ist als Autokorrelation auch automatisch durch verschiedene Kom- ursprünglichen Zeit- bekannt. Aufgrund wöchentlicher Regelmäßig- ponenten eines Modells erfasst werden. In der reihenwerte bezieht, keiten ist z.B. bei einer Zeitdifferenz von sieben Fachliteratur finden sich daher zahlreiche Ver- sondern stattdessen Differenzen zwischen Tagen eine hohe Autokorrelation zu erwarten. suche, neue Modelle zu entwerfen, die mit Über- aufeinanderfolgenden Aus derartigen Betrachtungen sieht man leicht, lagerungen und anderen speziellen Phänomenen Zeitreihenwerten vor- dass Modelle herleitbar sind, die sich in jedem besser zurechtkommen sollen. Einige klassische hergesagt werden. Schritt auf bestimmte vergangene Werte aus Verfahren sind teilweise noch in regulären ausgewählten Intervallabständen beziehen, etwa Tabellenkalkulationsprogrammen durchführbar dem Wert von vor einem Monat, vor zwei Mona- (z.B. Holt-Winters- bzw. Error-Trend-Seasonali- ten oder vor 12 Monaten (vgl. Abbildung 1). Dabei ty-Ansatz, GARCH und Croston-Modell). könnte ein einfacher Mittelwert derartiger ver- gangener Werte gebildet werden (Simple Moving Anomalien Averages bzw. gleitende Mittelwerte). Bei einer Besonders zu beachten sind so genannte Ausrei- einfachen exponentiellen Glättung hingegen wer- ßer oder Anomalien. Diese können Folge einma- den die historischen Werte so miteinander ver- liger Ereignisse sein, wie z.B. ein Taifun, der sich bunden, dass neueren Werten stets ein höheres auf die Supply Chain auswirkt, oder aber auch Re thinking Finan ce 2 . 2 02 1 April 2 02 1 25
Te chn ologie & M e nsch Abbildung 1: Forecasting unter Berücksichtigung einer periodischen Regelmäßigkeit sowie eines Wachstumstrends 250 200 150 100 50 0 Historische Daten Forecast fehlerhafte Einträge, wenn etwa versehentlich erzielt werden. Besonders ausschlaggebend für eine Ziffer zu viel eingetippt wurde. Zwar sind den Erfolg des Forecastings sind zunächst die außergewöhnliche und überraschende Ereig- zur Verfügung stehenden historischen Daten. Im nisse naturgemäß kaum vorhersehbar, jedoch Allgemeinen hilft es, wenn die Daten einen mög- sollte das Forecasting damit umgehen können, lichst großen Zeitraum abdecken, sofern diese falls sich in der Vergangenheit ungewöhnliche zumindest in einigen wesentlichen Grundzügen Datenpunkte vorfinden. Eine Möglichkeit, dies zu den aktuellen Daten ähneln, damit entsprechende berücksichtigen, ist eine gesonderte Erkennung Muster identifiziert bzw. Hypothesen über die derartiger Ausnahmepunkte bzw. -phasen. Diese Daten besser validiert werden können. können dann bei nachfolgenden Berechnungen herausgenommen werden oder durch typische Darüber hinaus kann es von großem Vorteil sein, Werte ersetzt werden. viele Datenreihen ähnlichen Typs zu modellieren, wenn etwa gleichwertige Kennzahlen in jeder Selbstverständlich kann es auch für das operative Region oder in jeder Filiale gesammelt werden Geschäft wichtig sein, ungewöhnliche Vorkomm- können. In der künstlichen Intelligenz ist die nisse in historischen und auch in aktuellen Daten Verfügbarkeit großer Datenmengen, auch Big Data zu identifizieren, etwa ein erhöhtes Supportauf- genannt, oftmals das A und O, da gewisse komplexe kommen oder Unregelmäßigkeiten im Cashflow. Zusammenhänge erst dann erkennbar werden. Zur Erkennung von Anomalien gibt es unzählige Entsprechend bietet es sich auch im Forecasting Verfahren. 1 Beziehen können sich diese z.B. auf an, sofern viele ähnliche Datensätze vorliegen, die Dichte, d.h. der allgemeinen Anzahl ähnlicher nicht völlig separate Modelle für jede einzelne Datenpunkte, oder auch auf die Abweichung von Region zu erstellen, sondern einen Lernmecha- zeitlich nahen Datenpunkten sowie die Abwei- nismus einzusetzen, der die Gesamtheit dieser chung von erkannten Trends und Periodizitäten. Daten analysiert, um ein robusteres und flexible- res Modell zu schaffen, das sich auf deutlich mehr Big Data Erfahrungswerte berufen kann. Oftmals gibt es Eine noch bessere Reaktion auf Ereignisse kann auch signifikante Bezüge zwischen einzelnen durch die Einbindung großer Datenmengen Zeitreihen. So kann die Markteinführung eines viel beworbenen, neuen Produkts in allen Regi- onen zugleich zu einem entsprechenden Bedarf 1 Vgl. den Überblick bei Chandola/Banerjee/Kumar, ACM Computing führen. In der Ökonometrie hat sich anhand dyna- Surveys 3/2009. mischer Faktor-Modelle gezeigt, dass zahlreiche 26 Re thinking Finan ce 2 . 2 02 1 April 2 02 1
Te chn ologie & M e nsch Tabelle 1: Vergleich zwischen klassischem und AI-basiertem Forecasting Klassisches Forecasting AI-basiertes Forecasting Anzahl Zeitreihen pro Modell Betrachtung einer einzelnen oder gleichzeitige Modellierung einiger weniger Zeitreihen Tausender Zeitreihen möglich keine oder nur minimale umfassende Einbeziehung Exogene Daten Berücksichtigung großer Datenmengen Analyse von unstrukturierten nicht möglich umfassende Möglichkeiten Daten (Texte, Bilder, Videos) Modellierung komplexer begrenzt möglich erweiterte Möglichkeiten Sachverhalte Modelle sind verhältnismäßig ein- erhöhte Komplexität, langsamer Trend zu Komplexität fach interpretierbar verständlicheren Modellen teilweise langsam aufgrund manu- teilweise langsam aufgrund manueller Reaktionsgeschwindigkeit eller Prozesse Prozesse, jedoch Trend zu Echtzeit-Monitoring recht diverse makroökonomische Entwicklungen jährliche variierende Feiertage wie Ostern kön- auf eine kleine Anzahl von latenten Faktoren nen dem Forecasting dienlich sein. zurückführbar sein können. Moderne AI-basierte Forecasting-Techniken ermöglichen eine gemein- Durch die fortschreitende Digitalisierung sind same Modellierung vieler Tausender Datensätze Daten verschiedenster Art in zunehmendem auf mehreren Ebenen, etwa Absatzzahlen in Regi- Maße verfügbar. Damit sie jedoch zum Einsatz onen sowie in einzelnen Filialen, zugleich aber kommen können, ist zunächst eine integrierte auch nach Produktkategorien sowie individuellen Dateninfrastruktur wichtig. Systeme müssen Produkten, in einem einzigen Gesamtmodell. miteinander verbunden sein, damit auf alle rele- vanten Quellen zugegriffen werden kann. Nicht Während saisonale Schwankungen unmittelbar nur ERP- und CRM-Systeme, sondern auch als Regelmäßigkeiten erkennbar sind, gibt es auch diverse in einzelnen Unternehmensbereichen Entwicklungen, die auf den ersten Blick relativ eingesetzte Spezialsoftware müssen eingebun- willkürlich wirken und erst mit dem nötigen den werden, damit relevante Informationen nicht Hintergrundwissen über die Marktlage oder über erst per Anfrage an entsprechende Teams in besondere Ereignisse erklärbar werden. Hier Form eines E-Mail-Anhangs eintreffen. Um sol- können weitere Informationen aus zusätzlichen che langwierigen Prozesse zu vermeiden, hat sich Quellen eingebunden werden. Diese aus Sicht der in den letzten Jahren auch das Konzept des Data Modellierung exogenen Daten können durchaus Lakes durchgesetzt, bei dem unternehmensweite auch unternehmensinterne Daten sein, wie etwa Daten aus verschiedenen Abteilungen in einen Informationen zur zukünftigen Auftragslage zentralen Speicher fließen und so unmittelbar aus verschiedenen Divisionen oder zu geplanten zur Analyse bereitstehen. Generell gilt, dass bei Großinvestitionen. Es kann sich aber auch um jeder Verarbeitung oder Speicherung von Daten gänzlich externe Daten handeln, wie Prognosen die entsprechenden datenschutzrechtlichen Vor- zur Entwicklung der Wirtschaft in einem Dritt- gaben zu beachten sind. land oder der entsprechenden Wechselkurse. Wetterdaten zum Beispiel haben Einfluss auf Bevor die vorhandenen Rohdaten zu Energiepreise und Verbraucherverhalten. Auch Forecast-Zwecken genutzt werden können, ganz banale Fakten wie Schulferientermine oder erfolgen meist zunächst weitere Vorverarbei- Re thinking Finan ce 2 . 2 02 1 April 2 02 1 27
Te chn ologie & M e nsch tungsschritte, wie etwa Data Cleaning und Data eine große Herausforderung, die für Unterneh- Integration, damit alle relevanten Informationen men aber eine große Hilfe zur Entscheidungs- für einen bestimmten Zeitraum im selben Format findung darstellt. In jüngster Zeit sind auch vorliegen. Hier können diverse Optimierungen zunehmend Cloud-Dienste in den Vordergrund erfolgen, damit diese Schritte möglichst schnell gerückt, die diesen Schritt erleichtern können. und automatisiert ablaufen. Ein Stichwort dabei Planungsrelevante Informationen können u.U. ist Robotic Process Automation (RPA), bei dem in Echtzeit analysiert und es können eigene stark strukturierte und sich wiederholende Pro- Szenarien und Trendanalysen erstellt werden. zesse eines Unternehmens automatisiert werden. Dabei sind die Aspekte der Datensicherheit und Datensouveränität besonders zu beachten. Machine Learning und Predictive Analytics Sobald große Datenmengen der oben genannten Deep Learning Deep Learning ist ein Art ins Spiel kommen, können Machine Learning Deep Learning ist heutzutage in aller Munde Teilbereich des Ma- und Predictive Analytics eingesetzt werden. Das und ein Thema, dem sich sogar der kanadische chine Learnings und nutzt vielschichtige Machine Learning (Maschinelles Lernen) ist Premierminister Justin Trudeau in einem künstliche neuronale eine wesentliche Komponente von AI, bei der es Online-Video widmet. 2 Zwar kann die künstliche Netze, die sich nach um Systeme geht, deren Verhalten nicht komplett Intelligenz als Forschungsgebiet eine jahr- der Funktionsweise menschlicher Gehirn- durch entsprechende Programmierung vorbe- zehntelange Geschichte aufweisen, sie hat aber zellen richten. Unter stimmt ist, sondern teilweise erst anhand von erst in den letzten Jahren besonderen Auftrieb Ausnutzung großer Daten erlernt wird. Predictive Analytics bezieht bekommen. Maßgeblich dazu beigetragen haben Datenmengen werden die Parameter eines sich dabei auf den Einsatz solcher Verfahren zur die durch Deep Learning erzielten Fortschritte Netzes immer weiter Vorhersage zukünftiger Entwicklungen. im Umgang mit hochkomplexen Daten, aus denen angepasst, bis es in sich sonst nicht ohne Weiteres Zusammenhänge der Lage ist, eigene Prognosen zu liefern. Im Bereich des Machine Learnings gibt es ver- ableiten lassen. Diese ermöglichen eine Auswer- schiedene Techniken, die sich mit der Analyse tung von Bild- und Videomaterial oder gar eine von Daten und dem Durchführen von Forecasts Generierung neuer Daten, etwa Bilder im Stil beschäftigen. Einige Verfahren erkennen Grup- von Seurat oder Monet. Letzten Endes ist Deep pierungen, Muster und Zusammenhänge, z.B. in Learning jedoch lediglich ein Rebranding der Form von Cluster- oder Assoziationsanalysen. altbekannten künstlichen neuronalen Netze, Am weitesten verbreitet ist das überwachte die bereits seit vielen Jahrzehnten im Machine Lernen, das Trainingsdaten als Beispiele für Learning erforscht werden. Hierbei handelt es das zu erlernende Verhalten heranzieht oder sich um mathematische Modelle, die in einigen Fortschreibungen von historischen Daten erzielt. Grundzügen von menschlichen Gehirnzellen Dabei werden bei Regressionsanalysen Zahlen inspiriert, jedoch konzeptuell deutlich einfacher ermittelt, während bei Klassifizierungsproble- gestaltet sind. Durch stärkere Rechenserver mit men Zugehörigkeiten zu vordefinierten Klassen ursprünglich primär für Gaming-Zwecke entwi- bestimmt werden, z.B. ob ein großes Kreditaus- ckelten Grafikprozessoren zur schnelleren Mat- Gradienten Boosting fallrisiko besteht. rizenrechnung sowie geringfügigen methodi- setzt viele kleine schen Verbesserungen kam es erst in den letzten Einzelmodelle ein, um Im Vergleich zu klassischen statistischen Algo- 15 Jahren zu besonders großen Durchbrüchen. eine möglichst gute Gesamtvorhersage rithmen haben viele moderne Verfahren (z.B. zu erzielen. In jedem Entscheidungsbäume mit Gradienten-Boosting) Für das Forecasting besonders relevant sind Lernschritt wird dabei den großen Vorteil, dass sie ohne Weiteres mit auf Sequenzen spezialisierte Varianten, die für ein neues Einzelmodell hinzugefügt, das den vielen Tausenden Variablen zurechtkommen jeden Zeitschritt eine weitere Vorhersage liefern noch verbleibenden und so externe Daten unterschiedlichster Art (insbesondere Recurrent Neural Networks, Fehler der bisherigen verwerten können, etwa Rohstoffpreisindizes, Long-Short-Term-Memory-Modelle und die Modelle korrigieren soll. So kann eine im- Konsumklimadaten, aber auch Produktrezensi- so genannte Transformer-Architektur). Diese mer bessere Annähe- onen und Schlagzeilen. Dies ermöglicht genauere Modelle sind sogar in der Lage, einen angefange- rung an die Zielwerte Forecasts, die nicht lediglich die Ist-Entwicklung nen Text im gleichen Stil und grammatikalisch erreicht werden. Als Einzelmodelle kommen widerspiegeln, sondern schnell auf veränderte typischerweise Rahmenbedingungen reagieren können. Entscheidungsbäume zum Einsatz. 2 Vgl. University of Toronto, Konferenz „Machine Learning and the Große Datenmengen auszuwerten und mittels Market for Intelligence“ 2017, Videomitschnitt unter: https://youtu.be/ Machine Learning Vorhersagen abzuleiten, ist yPIcDfKqg1g (Abruf: 16.02.2021). 28 Re thinking Finan ce 2 . 2 02 1 April 2 02 1
Te chn ologie & M e nsch weitgehend einwandfrei weiterzuschreiben, z.B. Modelle zu bevorzugen sind. Dafür benötigt wird auch im Stil von Shakespeare, jedoch inhaltlich Personal mit Wissen um das konkrete Unter- nicht unbedingt immer kohärent. Um sie für nehmensumfeld sowie einer entsprechenden Forecasting-Zwecke einzusetzen, bietet es sich Vertrautheit mit den Daten, zugleich aber auch an, ihre Struktur so zu erweitern, dass auch auf mit mathematischen und technischen Kennt- weiter in der Vergangenheit zurückliegende nissen im Bereich Forecasting. Aufgrund dieser Daten unmittelbarer Zugriff besteht. Ebenfalls doppelten Anforderungen kann entsprechend kann das Forecasting zugleich auf mehreren qualifiziertes Personal rar sein, vor allem wenn Stufen durchgeführt werden, z.B. auf Tagesebene AI-Erfahrung benötigt wird. In den letzten sowie auf Monatsebene, damit längerfristige Jahren haben sich daher Forschende im Bereich Entwicklungen konkreter modelliert werden. Machine Learning und AI verstärkt zum Ziel Daneben entstehen in jüngster Zeit auch gänzlich gesetzt, sich gewissermaßen selbst zu auto- neue Deep-Learning-Modelle, die noch spezieller matisieren. Unter den Begriffen Auto-ML und dem Forecasting gewidmet sind 3, so z.B. Deep- Augmented Analytics fallen dabei Techniken, die Learning-Varianten statistischer Verfahren zur die typischen bei der Modellierungsarbeit anfal- Berücksichtigung besonders schwer erkenn- lenden Aufgaben selbstständig durchführen oder barer Faktoren, Varianten mit einer direkteren zumindest dem Menschen die Arbeit erleichtern. Vorhersage der Unsicherheit sowie besondere Dazu kann eine automatisierte Wahl zwischen Residual-Architekturen, mit denen schrittweise verschiedenen Modellierungsvarianten gehören versucht wird, den verbleibenden Restfehler bes- oder eine automatische Evaluierung des Modells ser zu modellieren. sowie ein automatisches Durchprobieren vieler potenzieller Hypothesen. Besonders geeignet sind Deep-Learning-Mo- delle auch beim Interpretieren unstrukturierter Hinzu kommt auch ein Trend zum Explainable Daten. Text Analytics bezieht sich etwa auf die AI, d.h. zu Verfahren, die nicht nur die eigent- Analyse von Konzernberichten oder Nachrich- lichen Vorhersagen liefern, sondern auch dazu tentexten. Wenn beispielsweise der Bedarf an passende Erklärungen sowie Aussagen bezüglich medizinischen Geräten aufgrund von COVID-19 eventueller Unsicherheiten. Im besten Fall sind rasant ansteigt, dann ist dies nicht direkt aus den diese Aussagen auch ohne AI-Kenntnisse unmit- historischen Daten ersichtlich. Anhand sozialer telbar verständlich und ermöglichen eine einfa- Medien sind aber neue Phänomene auch in weit che Anpassung des Modells, so dass unpassende entfernten Märkten frühzeitig erkennbar. Dies Prognosen hinterfragt und korrigiert, aber auch könnten spezifische Produktankündigungen sein zusätzliche Annahmen leichter integriert wer- oder auch allgemeine Trends, die sich etwa auf den können. Je mehr Daten dem System geliefert das dortige Konsumklima auswirken. Computer werden, desto größer ist die Wahrscheinlichkeit, Computer Vision Vision hingegen ermöglicht eine Analyse von dass relevante Informationen vorhanden sind, ermöglicht Com- putersystemen eine Bild- und Videomaterial und erlaubt so Rück- die das Modell ausnutzen kann. Allerdings muss inhaltliche Auswertung schlüsse etwa auf Handelsströme in Häfen oder man bedenken, dass dies auf eine Suche nach der von Bild- und Video- gibt anhand von Satellitenaufnahmen Aufschluss Nadel im Heuhaufen hinauslaufen kann, wenn in material. Dabei werden zunächst grundlegende über Konjunkturentwicklungen. diesem Konglomerat auch viele irrelevante Daten Kanten und Muster vorkommen. Korrelationen können bekannter- erkannt und darauf Augmented Analytics und Explainable AI maßen auch rein zufällig sein. Schaut man sich aufbauend allmählich auch komplexere Vorhersagen über die Praxis des Vorhersagens etwa an, wie oft in den USA die Doktorwürde im Objekte oder auch Ge- sind naturgemäß nicht einfach. Dennoch kann Bereich Soziologie verliehen wurde, so zeigt sich schehnisse identifiziert. man anhand jüngerer Entwicklungen im Rah- zumindest für den Zeitraum 1997 bis 2009 eine Oft kommen Deep Learning-Modelle mit men der künstlichen Intelligenz einige Tenden- sehr starke Korrelation mit der Anzahl der welt- speziellen Filtermasken zen ableiten. Generell gibt es zu gegebenen Daten weiten nichtkommerziellen Raumflüge. 4 Auto- zum Einsatz, so ge- unendlich viele Modelle, die mit diesen Daten matisierte Algorithmen können leicht auf solche nannte Convolutional Neural Networks. vereinbar sind und so müssen immer gewisse zufälligen Zusammenhänge hereinfallen, so dass Annahmen getroffen werden, welche dieser ein vorsichtiger Einsatz geboten ist, insbesondere 3 Vgl. z.B. Makridakis/Spiliotis/Assimakopoulos, International Journal of 4 Vgl. Vigen, Spurious Correlations, 2021, https://tylervigen.com/ Forecasting 2020, S. 54–74. spurious-correlations (Abruf: 16.02.2021). Re thinking Finan ce 2 . 2 02 1 April 2 02 1 29
Te chn ologie & M e nsch Abbildung 2: Überblick über die dargestellten Methoden des Forecastings Deep-Learning-Modell Echtzeit- Historische Daten Forecast Data Lake Automatisiertes Supply Chain Data Cleaning, Data Integration Exogene Daten Gemeinsame Modellierung Erklärungen, (unternehmensintern vieler Tausender Zeitreihen Entscheidungs- und -extern) hilfen für Planungen wenn ethisch bedenkliche Herleitungen möglich Prognosen kann die Software dann frühzeitig sind. Erst wenn ein System seine Vorschläge mit entsprechende Hinweise liefern und womöglich überzeugenden Argumenten untermauern kann, auch Handlungsempfehlungen ableiten, etwa sollten Entscheidungsträger bereit sein, diesen Anpassungen in der Lieferkette oder bei der Perso- zu vertrauen. nalplanung. Simulationen verschiedener Fallsze- narien können als Entscheidungshilfe dienen, z.B. Continuous Intelligence und wie sich neue Marketingmaßnahmen oder eine Entscheidungshilfen veränderte Produktstrategie auswirken könnten. Von den oben genannten Analysen können Maß- Abbildung 2 zeigt den Zusammenhang zwischen nahmen und Entscheidungen hinsichtlich der den dargestellten Methoden im Überblick. weiteren Planung getroffen werden bzw. es kön- nen vorhandene Planungen durch die Ergebnisse Fazit der Forecast-Analysen präzisiert werden. Gerade In der Planung und beim Forecasting ist es ent- anhand von Entwicklungen wie COVID-19 zeigt scheidend, aus vorhandenen Daten Erkenntnisse sich eine Notwendigkeit, die Planung dynamisch über potenzielle zukünftige Entwicklungen an aktuelle Geschehnisse anpassen zu können. abzuleiten. Dies sind die Stärken moderner Das beinhaltet ein Design von Systemen, bei AI-Methoden wie Deep Learning, die dabei mit denen derartige Planungsprozesse nicht erst vom hoher Geschwindigkeit gewaltige Datenmengen zuständigen Personal initiiert werden, sondern analysieren können. Gerade die Erfahrungen in die automatisch eine stetige Echtzeit-Observie- der Pandemie zeigen, dass in unserer modernen rung relevanter Marktsignale und eine ständige vernetzten Welt vieles miteinander zusammen- Neuberechnung der Prognosen beinhalten. Fer- hängt und Erscheinungen in sehr fernen Märkten ner werden die aus unterschiedlichen Bereichen sich recht bald auch auf das örtliche Kerngeschäft stammenden Teilpläne in einem einzigen System auswirken können. Aktuelle Forschungsergeb- zusammengebracht. nisse weisen auf ein sehr hohes Potenzial von AI und Machine Learning hin, um schnellere, Durch diese Echtzeitintegration und -modellie- detailliertere und präzisere Forecasts zu liefern. rung kann nicht nur anhand von Dashboards ein Eine Umsetzung moderner AI-Lösungen muss mögliches Verfehlen von Zielvorgaben frühzeitig jedoch mit Bedacht erfolgen und ist derzeit in erkannt werden. Das System sollte auch Abwei- vielen Situationen noch nicht praktikabel. Da chungen von bisher angenommenen Rahmendaten diese Lösungen aber zunehmend auch Eingang in erkennen und idealerweise auch neue Trends anti- moderne Unternehmenssoftware finden, zeich- zipieren, die sich in Finanzmärkten oder sozialen net sich ein klarer Trend zu einem wachsenden Medien abzeichnen. Bei sich rapide verändernden Einsatz von AI in Planung und Forecasting ab. ■ 30 Re thinking Finan ce 2 . 2 02 1 April 2 02 1
Sie können auch lesen