Cloud-Computing als Fundament für Analytics - Opitz Consulting
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
BUSINESS NEWS Cloud-Computing als Fundament für Analytics Rolf Scheuch, OPITZ CONSULTING Im Zuge der Digitalisierung der Geschäftsmodelle verschmelzen die eher in die Vergangenheit schauende klassische Business-Intelligence- Welt und das in die Zukunft gerichtete Analyseverständnis von Big Data zu einer gemeinsamen Analytics-Plattform. Diese neue „analyti- sche Plattform“ zeichnet sich durch technologische Vielfalt und stetige Veränderung aus und verbindet in verstärktem Maße unterschiedli- che Cloud-Ansätze zu einer hybriden analytischen Infrastruktur. Der Artikel betrachtet die Motive für die Verschmelzung von BI und Big Data und beschreibt einen Blue-Print für eine analytische Architektur. Anschließend geht er näher auf hybride Cloud-Ansätze ein und zeigt, wie Geschwindigkeit, Flexibilität, Skalierbarkeit und Change schon in der Architektur implementiert werden können. Business News 03/2020 83
Auf Datenschatzsuche mit Deep Learning Die Zukunft von BI und Big Data Reale und virtuelle Welt gehen heute im- mer mehr ineinander über. Eine radikale Transformation unseres beruflichen und privaten Umfeldes ist bereits in vollem Gan- ge [1]. Gerade die Ex-post-Sicht der Business Intelligence (BI) gerät damit unter Druck, denn der Wert einer Information nimmt in Relation zur Zeit stetig ab [2]. Geschwindig- keit ist gefragt. Nichts ist schließlich so alt wie die Zeitung von gestern! Zwar hat die IT in den letzten Jahren BI- Lösungen geschaffen, die die Zeitspanne zwischen Verarbeitung und Kommunikati- on von Informationen reduzieren können. Die Digitalisierung verändert die Anfor- derungen jedoch noch einmal dramatisch durch ihre Forderung nach Near-Realtime- Analysen und -Nutzung. Somit entfällt der Abbildung 1: Fachliche Komponenten eines digitalen Geschäftsmodells © OPITZ CONSULTING zeitliche Versatz, der den aktuellen BI-Ar- chitekturen innewohnt. Dazu kommt, dass der Blick der BI-Welt eher auf die Vergan- Komponenten besitzen. Diese Komponenten zubereiten und im Netzwerk zu propagie- genheit gerichtet ist. Die Vergangenheit ist sind in Abbildung 1 aufgeführt. ren, um das Verhalten der Endgeräte durch bei digitalen Geschäftsmodellen jedoch oft Der Wertschöpfungsprozess eines digi- eine Ansteuerung der Aktuatoren zu beein- nur ein Teilaspekt: Next-Best-Offer, Predic- talen Geschäftsmodells beinhaltet einen flussen. Diesen Regelkreis zusammen mit tive Maintenance oder Deep Learning sind „lernenden Regelkreis“. Dieser beginnt und dem Datenmanagement stellt der Kasten als Analyseansätze integraler Bestandteil endet mit der Nutzung des Gegenstands „Daten- und Device Management“ in Abbil- von operativen Prozessen. Sie verwenden oder des Endgeräts. Verhalten und Zustand dung 1 dar. Die Frontend- und Backend-Ap- Prognoseergebnisse der Gegenwart zur des Produkts werden durch die Sensorik plikationen des digitalen Geschäftsmodells Steuerung von Entscheidungen. seiner Daten nach außen sichtbar [4]. nutzen anschließend die aufbereiteten Da- Parallel dazu verspricht Cloud-Compu- Die übermittelten Sensordaten der End- ten zur Etablierung des neuen Angebots ting „IT-Power aus der Steckdose“. Welche geräte werden im Rahmen des Datenmana- oder eines Mehrwerts für den Kunden. IT träumt nicht davon? Die IT-Kosten bezie- gements aufbereitet. Aufgrund der großen Abbildung 2 zeigt den Regelkreis, der hen sich damit auf die tatsächliche Nutzung Menge und Variabilität der Sensordaten durch Analytik-Maßnahmen geschlossen und auf Preismodelle, die nutzungsbezo- wird die Verarbeitung in der Regel als Fast- wird. Diese Maßnahmen umfassen neben gen abrechnen. Betriebswirtschaftlich ist Data [5] implementiert. Die notwendige der Erfolgsmessung, die in Form eines klas- somit eine Wandlung der Kapitalbindung Geschwindigkeit bei der Datenaufnahme sischen Controllings über einer BI-Welt durch IT-Infrastruktur (CAPEX) in operative und Verarbeitung wird über Architekturen stattfindet, auch eine explorative Erken- Betriebskosten (OPEX) möglich. erreicht, die sich über mehrere Ebenen des nung von Mustern, etwa des Kunden- und Netzwerks erstrecken. Was das Datenvolu- Produktverhaltens. Ziel ist eine Optimie- Analytics bei der Digitalisierung men angeht, helfen die Architekturkonzep- rung des digitalen Geschäftsmodells. Die Im Folgenden geht es kurz um die grund- te des Big Data weiter. Die Streaming-Daten Optimierung erfolgt meist in einem ex- legenden Bausteine eines digitalen Ge- werden in Near Realtime gefiltert und ana- plorativen Ansatz, der zeitlich eher unkri- schäftsmodells. Anhand dieser Bausteine lysiert, wobei bereits eine lokale Intelligenz tisch ist – einem sogenannten „Batch-ori- zeigt sich, wie dringend ein Regelkreis aus zu einer Veränderung der Nutzung führen entierten Big-Data-Ansatz“. Hierzu zählen Big Data und BI benötigt wird. Hieraus mo- kann (siehe auch „Dunkelverarbeitung“ in statistische Prognosemodelle ebenso wie tiviert sich am Ende die Zusammenlegung Abbildung 1.) die Ansätze des Deep Learning [6]. Die Mo- zu einer analytischen Infrastruktur. Im Mittelpunkt vieler digitaler Geschäfts- delle werden fortlaufend anhand von Test- Ein digitales Geschäftsmodell stellt nur modelle steht oft ein Verbund an Endgerä- fällen aus der Praxis überprüft und somit eine Ausprägung eines klassischen Geschäfts- ten, etwa Beleuchtungseinheiten, Parkplät- kontinuierlich verbessert. Die Erkenntnisse modells dar, mit der Besonderheit, dass die ze, Mietobjekte, Connected Car etc., deren daraus können verwendet werden, um ent- Leistungserbringung von der Nutzung der Verhalten gemeinsam an die veränderten sprechende Regelwerke auf den Streaming- Informationstechnologie abhängt und der Umweltbedingungen angepasst werden Daten für eine Near-Realtime-Filterung und Mehrwert für den Kunden meist ein digitales muss. Hierzu werden fachliche Nachrich- -Prüfung zu verwenden. Das eher klassische und somit virtuelles Produkt ist [3]. Doch ganz ten an ein lokales oder zentralisiertes De- Controlling rundet den Regelkreis ab und lie- gleich, welche Klassifikation ein angestrebtes vice Management versandt. Das Device Ma- fert in einer Ex-post- und betriebswirtschaft- digitales Geschäftsmodell besitzt, es wird in nagement ist nun in der Lage, die logischen lichen Sicht Informationen zum Geschäfts- seiner Ausprägung grundlegende fachliche Events der unterschiedlichen Endgeräte auf- modell selbst. 84 www.aoug.at • www.doag.org • www.soug.ch
BUSINESS NEWS Die analytische Plattform Abbildung 3 verdeutlicht das Zusammen- spiel der Ansätze von Big Data sowie klas- sischer BI-Welt und beschreibt die Architek- turkomponenten. Sowohl Near-Realtime-Entscheidungs- findung, klassisches BI als auch Modellbil- dung für Prognosen fließen beim Aufbau einer analytischen Architektur mit ein. Es wird also deutlich, dass sowohl eine klas- sische BI/DWH-Sicht als auch eine reine Big-Data-Sicht für sich genommen jeweils unzureichend wären. Auf eben dieser An- nahme baut die beschriebene Referenz- architektur auf. Dieser „analytischen Ar- chitektur“ liegt die Annahme zugrunde, dass mittelfristig die klassische, eher Ex- post-orientierte Business Intelligence mit Abbildung 2: Der analytische Regelkreis © OPITZ CONSULTING Data-Warehouse-Ansätzen und die neuen Big-Data-Ansätze zu umfassenden Archi- tekturen verschmelzen werden. Auch wenn Service-Modul, das als SaaS-Lösung imple- in ein Data Warehouse und ermöglichen beide Ansätze hinsichtlich der technischen mentiert sein kann. Des Weiteren gelingt es, so ein umfassendes finanzielles Control- Implementierung äußerst verschieden sind, mit zeitlichem Versatz in Batch-orientierten ling. Ferner werden die Batch-orientierten so ist die betriebswirtschaftliche Aufgaben- statistischen Verfahren die Positionen der Ansätze verwendet, um neue Muster zu stellung bei beiden identisch: Beiden geht Fahrräder mit ihrer Mietdauer sowie mit zu- erkennen und diese, so möglich, auf dem es darum, aus Daten Informationen zu ge- künftigen Events und Großereignissen zu Stream für eine Near-Realtime-Verarbei- winnen und das Geschäft durch Analysen korrelieren. Aus dieser Korrelation ergeben tung zu implementieren. Das Fallbeispiel besser steuern zu können. sich sogenannte „Lokalisierungsaufträge“, zeigt, wie klassische BI-Ansätze und neue Am Beispiel eines Geschäftsmodells die generiert werden, um Fahrräder an be- Big-Data-Ansätze mit den Spielarten der zum Verleih von Fahrrädern wird diese Ver- stimmte geographische Punkte in die Nähe Batch-orientierten explorativen Simulation schmelzung gut sichtbar: In Near Realtime potenzieller Kunden zu bringen und damit mit statistischen Modellen und der Near- analysiert ein Unternehmen die Sensor- bessere Ausleihquoten zu erreichen. Letzt- Realtime-Analyse des Datenstroms erst in daten seiner Fahrräder und erkennt Mus- endlich fließen die Fahrradinformationen ihrer Kombination zu wesentlichen Erfolgs- ter, die auf eine notwendige Reparatur nebst Daten aus den betriebswirtschaftli- faktoren werden. schließen lassen. Hierzu generiert das Sys- chen Systemen (Materialwissenschaften, Fi- Die geschilderten fachlichen Kompo- tem einen Serviceauftrag an das Backend- nanzbuchhaltung, Service etc.) aggregiert nenten benötigen unterschiedliche System- Abbildung 3: Analytische Architekturen bei der Digitalisierung © OPITZ CONSULTING Business News 03/2020 85
Auf Datenschatzsuche mit Deep Learning Abbildung 4: Zukunftsweisende hybride Infrastrukturen © OPITZ CONSULTING infrastrukturen. Daher bilden hybride Inf- An dieser Stelle liefert die klassische BI-Welt Für eine Cloud-Lösung sprechen einige rastrukturansätze unter Einbeziehung von einen Mehrwert als Lieferant von qualitäts- Vorteile: Beim Betrieb einer Cloud-BI-Lö- Cloud-Lösungen ein passendes Fundament gesicherten Daten. Voraussetzung hierfür sung mit eigenen Lizenzen im Rahmen ei- für die analytische Architektur. sind allerdings eine übergreifende Gover- ner IaaS-Lösung ist die Unternehmens-IT nance beim Datenmanagement sowie die mit den gleichen IT-Service-Prozessen be- Hybride Cloud-Lösungen Transparenz über die Nutzung relevanter lastet wie bei einer On-Premises-Lösung. Die meisten Unternehmen nutzen bereits zentraler Daten. Im Gegensatz dazu entfallen bei einer PaaS- eine Vielzahl von Cloud-Lösungen mit un- Abbildung 4 stellt die unterschiedli- Lösung mit nutzungsabhängiger Abrech- terschiedlichen Liefer- und Servicemodel- chen Implementierungsansätze inklusive nung die direkten Lizenzkosten ebenso wie len. Dies gilt für BI-Branchenlösungen, die der Cloud-Ansätze für analytische Lösun- die Verantwortung für wesentliche IT-Ser- vermehrt als SaaS-Lösungen angeboten gen in einem Blue-Print für eine hybride vice-Prozesse. Jedoch müssen bei PaaS (wie werden, aber auch für PaaS-Lösungen für Infrastruktur der analytischen Welt dar. auch bei SaaS) die internen Verrechnungs- Big Data oder BI-Suiten. So ist es nicht ver- Hier gibt es kein Richtig oder Falsch, son- algorithmen angepasst werden. wunderlich, dass ein ganzheitlicher An- dern Entscheidungen müssen situativ auf Bei Pilot-Projekten oder einem Proof-of- satz für analytische Lösungen notwendig Basis aktueller Anforderungen getroffen Concept (PoC) hat ein Cloud-Ansatz Vortei- wird. Der ganzheitliche Ansatz verschafft werden. le für die Time-to-Value [7]. In vielen Fällen hybriden Ansätzen bei analytischen Lö- Abbildung 4 zeigt unterschiedliche Sze- ermöglichen die Anbieter von Cloud-Lö- sungen bei allem Wildwuchs eine ordnen- narien für die Implementierung einer BI- sungen de Sicht. oder Big-Data-Lösung: Anstatt auf die sich so entwickelnde De- • eine schnelle Bereitstellung der benötig- zentralität mit Bestrebungen zur Zentrali- • Nutzung von Public-Cloud-Lösungen ten Systemressourcen inklusive der Soft- sierung und Standardisierung zu antworten ohne eigene Lizenzen ware selbst, und somit wieder Geschwindigkeit und In- – als SaaS-Lösung • eine umfassende Testumgebung, novation zu hemmen, kann die IT im Rah- – als PaaS-Plattform für BI oder Big Data • eine nutzungsabhängige Abrechnung, men hybrider Cloud-Lösungen einen „Design • Nutzung eigener BI- und/oder Big-Data- • die leichtere Einführung von modernen for Change“-Ansatz verfolgen und die analy- Lizenzen Lean-Startup-Ansätzen nach dem „Fail tische Architektur auf einer reaktiven Infra- – in einer Public-IaaS-Lösung fast, fail early“-Prinzip und deren Nut- struktur implementieren. – in einer Private-Cloud-Lösung zung für den PoC. Bei dezentralen Ansätzen treten schnell – On-Premises auf der eigenen Infra- Herausforderungen an die Datenqualität struktur Unternehmen beginnen verstärkt mit der auf. Insbesondere sind Inkonsistenzen bei • Nutzung einer Integrationsplattform für Implementierung von Data Lakes [8][9]. der Nutzung von Stamm-, Meta- und Refe- die Datenbewirtschaftung Eine Vielzahl von neuartigen Daten werden renzdaten zu beobachten. In der Folge sinkt – in einer Public Cloud (Cloud Based in die Analysen einbezogen: Sensordaten, das Vertrauen in die Analysen und die de- Integration) Lokalisierungsdaten, Geodaten, Text Mes- zentralen Plattformen geraten unter Druck. – On-Premises sages, Log File etc. Die Heterogenität dieser 86 www.aoug.at • www.doag.org • www.soug.ch
BUSINESS NEWS Daten, die Variabilität der Datenstrukturen Endgeräten und das Einspielen fehlerhafter & Analytics: KI und Maschinelles Lernen auf und die schnellen Zyklen der Formatände- Daten auf die IoT-Plattform. Normalerwei- dem Vormarsch“ (eBook, deutsch, 70 Seiten, rungen sind mit den klassischen Datenbe- se besteht kein ausgeprägter Datenschutz. PDF 13,2 MB, IT Verlag für Informationstech- wirtschaftungsprozessen aus der BI-Welt Für den Fall eines Datenverlusts bietet sich nik GmbH 2019). Wir danken für die freundliche schwerlich realisierbar. Ferner lassen diese für das Backup eine Cloud-Lösung als Platt- Genehmigung. Daten sich nur mit hohem Aufwand in die form an. notwendigen relationalen Strukturen wie Für das Balance-Verhältnis zwischen On- Quellen und Anmerkungen [1] Tim Cole: Digitale Transformation, zum Beispiel Star-Schemata überführen. An Premises-Lösungen und Cloud-Lösungen Franz Vahlen Verlag 2015 dieser Stelle sind NoSQL-Datenhaltungen steht das „Center of Gravity“ [11]. Es setzt [2] Dominik Bial: IoT erfordert neues Denken, BI-Spektrum 02-2016 [10] auf dem Vormarsch und die Data-Lake- den Anteil der Cloud-Lösungen in Bezug [3] Thomas Bieger, Stephan Reinhold: Innovative Konzepte lassen die Ablage der Daten in he- zu den On-Premises-Installationen. Aus die- Geschäftsmodelle: Konzeptionelle Grundlagen, Ge- staltungsfelder und unternehmerische Praxis. 2011 terogenen Datenhaltungen zu. sem Verhältnis lassen sich wichtige Schlüs- in: T. Bieger, D. zu Knyphausen-Aufseß, C. Krys (Hg.), Neben den betriebswirtschaftlichen Über- se ziehen, denn: Je höher der Einsatz un- Innovative Geschäftsmodelle, Springer Verlag 2011 [4] Ferner kann der Gegenstand auch ein Smart Device legungen hinsichtlich Investitionsschutz und terschiedlicher Cloud-Lösungen ist, desto wie etwa auch ein Tablet oder Smartphone sein. Abschreibungszeiträumen sind am Ende vor eher verschiebt sich auch die Integrations- [5] BITKOM, Frauenhofer (Hg.): Big-Data-Technologien – allem zwei Kriterien bei der Entscheidung für plattform in die Cloud und rückt damit nä- Wissen für Entscheider, https://www.bitkom.org/ Publikationen/2014/Leitfaden/Big-Data-Technologien- oder gegen die Cloud-Lösung ausschlagge- her an den Ursprung der Daten. Wissen-fuer-Entscheider/140228-Big-Data- bend: der Datenschutz und die Kosten. Technologien-Wissen-fuer-Entscheider.pdf (Download Juni 2015) Fazit [6] Einen guten Einstieg erhält man auf dieser Website: Datenschutz Die Verbreitung von Cloud-Lösungen ist http://deeplearning.net/ (Download 10/2016) [7] Nello Franco: Time To Value: A Key Metric, https:// Beim Datenschutz ist es notwendig, die unaufhaltsam. Unterschiedliche Liefer- und blog.nellofranco.com/2013/08/25/time-to-value-a- gewachsenen, oft schon veralteten Daten- Servicemodelle nehmen Einzug in die Un- key-metric/ (Download 10/2016) [8] Tamara Dull: Data Lake vs Data Warehouse: Key schutzbestimmungen und Regelungen zu ternehmen, hybride Ansätze beim Cloud- Differences, http://www.kdnuggets.com/2015/09/ hinterfragen, um die Entscheidung gegen Computing werden die Regel. Die Client/ data-lake-vs-data-warehouse-key-differences.html (Download 10/2016) eine Cloud-Lösung nicht vorschnell zu tref- Server-Revolution hat uns gelehrt, die Ver- [9] Matthias Reiss und Stephan Reimann: Das Data Lake fen. Dabei empfiehlt es sich, keine zentrale breitung der Cloud-Lösungen seitens der Konzept: Der Schatz im Datensee, https://www.it- daily.net/it-management/big-data-analytics/11222- übergreifende Entscheidung für alle BI- und zentralen IT zu unterstützen, anstatt als das-data-lake-konzept-der-schatz-im-datensee Big-Data-Lösungen zu treffen, sondern zu- „Bremser“ von Innovation aufzutreten. (Download 10/2016) [10] Eine Übersicht und Einführung findet sich unter nächst die relevanten Datenobjekte für den Auch der Big-Data-Zug rollt. Und für eine http://nosql-database.org/ (Download 10/2016) analytischen Bereich zu definieren und da- zentrale BI-Einheit im Unternehmen ergibt [11] Jim Harris: The Cloud is shifting our Center of Gravity, http://www.ocdqblog.com/home/the-cloud-is- raufhin eine Entscheidung für das jeweilige es wenig Sinn, die Big-Data-Welle einzu- shifting-our-center-of-gravity.html (Download am Sub-Set zu treffen. Abgesehen davon sind dämmen. Wie geschildert ergänzen sich die 28.5.2015) alle in Abbildung 4 aufgeführten Spielarten beiden Facetten analytischer Fragestellun- der Implementierung realistisch und sollten gen gerade im Hinblick auf die kontinuierli- geprüft werden. che Verbesserung von digitalen Geschäfts- modellen. Aus diesem Grunde werden die Kostentreiber zentralistische BI-Welt und die eher fö- Ein wesentlicher Kostentreiber ist der Preis derale Big-Data-Welt zu einer neuartigen für die Datenspeicherung und den Daten- analytischen Plattform verschmelzen. Das export von einer Cloud-Infrastruktur in eine Thema der Governance der analytischen andere Infrastruktur. Je größer die Daten- Plattform wird in dem Zusammenhang ein menge ist, die aus der Cloud in BI- und Big- neues, wichtiges Handlungsfeld. Data-Systeme fließt, desto preiswerter wird Auch etablierte Denkmuster der zen- eine Inside-Lösung im Unternehmensnetz- tralen Plattform werden sich wandeln. werk sein. Aktuell sind die Preismodelle der Zu dynamisch ist der Markt und zu groß Cloud-Anbieter nur für konkrete Anwen- sind die Chancen neuer Geschäftsmodelle dungsfälle vergleichbar. durch neue Technologien. Der „Design for Rolf Scheuch Eine Besonderheit besteht in der Near- Change“-Gedanke hält Einzug in die Denk- rolf.scheuch@opitz-consulting.com Realtime-Verarbeitung durch Streaming- muster und Cloud-Computing wird zu ei- Rolf Scheuch ist Diplom-Mathematiker, Lösungen, Fast-Data-Ansätze, Complex nem entscheidenden Hilfsmittel, um die geschäftsführender Gesellschafter und Mitbegründer von OPITZ CONSULTING; er Event Processing und Realtime-Analytik, Time-to-Value zu reduzieren und Flexibili- verantwortet seit 2011 als Chief Strategy wie in Abbildung 3 aufgeführt. Diese Lö- tät zu erhöhen. Cloud-Computing wird ein Officer die strategische Ausrichtung der Un- ternehmensgruppe. Heute arbeitet er zudem sungsansätze findet man häufig beim Inter- Fundament der neuen analytischen Platt- als Management-Coach, hält Fachvorträge und net der Dinge mit einer Vielzahl heteroge- form werden. ist Autor diverser Bücher und Publikationen. Schwerpunkt des Management-Coachings der ner Sensordaten. Die IoT-Plattformen selbst letzten Jahre war die veränderte Rolle der IT liegen in der Regel schon außerhalb des Der Artikel von Rolf Scheuch erschien erstmals durch die Digitalisierung mit den spezifischen Themen Agilität, Right Sourcing, föderale Unternehmensnetzwerks und die Security unter dem Titel „Die Zukunft von BI und Big Governance und Innovationsfähigkeit der IT. bezieht sich auf einen Zugriffschutz zu den Data“ im Rahmen der Publikation „Big Data Business News 03/2020 87
Sie können auch lesen