Cloud-Computing als Fundament für Analytics - Opitz Consulting

 
WEITER LESEN
Cloud-Computing als Fundament für Analytics - Opitz Consulting
BUSINESS NEWS

Cloud-Computing als Fundament
für Analytics
                                                                                                     Rolf Scheuch, OPITZ CONSULTING

Im Zuge der Digitalisierung der Geschäftsmodelle verschmelzen die eher in die Vergangenheit schauende klassische Business-Intelligence-
Welt und das in die Zukunft gerichtete Analyseverständnis von Big Data zu einer gemeinsamen Analytics-Plattform. Diese neue „analyti-
sche Plattform“ zeichnet sich durch technologische Vielfalt und stetige Veränderung aus und verbindet in verstärktem Maße unterschiedli-
che Cloud-Ansätze zu einer hybriden analytischen Infrastruktur. Der Artikel betrachtet die Motive für die Verschmelzung von BI und Big Data
und beschreibt einen Blue-Print für eine analytische Architektur. Anschließend geht er näher auf hybride Cloud-Ansätze ein und zeigt, wie
Geschwindigkeit, Flexibilität, Skalierbarkeit und Change schon in der Architektur implementiert werden können.

                                                                                                                Business News 03/2020         83
Cloud-Computing als Fundament für Analytics - Opitz Consulting
Auf Datenschatzsuche mit Deep Learning

     Die Zukunft von BI und Big Data
     Reale und virtuelle Welt gehen heute im-
     mer mehr ineinander über. Eine radikale
     Transformation unseres beruflichen und
     privaten Umfeldes ist bereits in vollem Gan-
     ge [1]. Gerade die Ex-post-Sicht der Business
     Intelligence (BI) gerät damit unter Druck,
     denn der Wert einer Information nimmt in
     Relation zur Zeit stetig ab [2]. Geschwindig-
     keit ist gefragt. Nichts ist schließlich so alt
     wie die Zeitung von gestern!
         Zwar hat die IT in den letzten Jahren BI-
     Lösungen geschaffen, die die Zeitspanne
     zwischen Verarbeitung und Kommunikati-
     on von Informationen reduzieren können.
     Die Digitalisierung verändert die Anfor-
     derungen jedoch noch einmal dramatisch
     durch ihre Forderung nach Near-Realtime-
     Analysen und -Nutzung. Somit entfällt der         Abbildung 1: Fachliche Komponenten eines digitalen Geschäftsmodells © OPITZ CONSULTING
     zeitliche Versatz, der den aktuellen BI-Ar-
     chitekturen innewohnt. Dazu kommt, dass
     der Blick der BI-Welt eher auf die Vergan-        Komponenten besitzen. Diese Komponenten               zubereiten und im Netzwerk zu propagie-
     genheit gerichtet ist. Die Vergangenheit ist      sind in Abbildung 1 aufgeführt.                       ren, um das Verhalten der Endgeräte durch
     bei digitalen Geschäftsmodellen jedoch oft            Der Wertschöpfungsprozess eines digi-             eine Ansteuerung der Aktuatoren zu beein-
     nur ein Teilaspekt: Next-Best-Offer, Predic-      talen Geschäftsmodells beinhaltet einen               flussen. Diesen Regelkreis zusammen mit
     tive Maintenance oder Deep Learning sind          „lernenden Regelkreis“. Dieser beginnt und            dem Datenmanagement stellt der Kasten
     als Analyseansätze integraler Bestandteil         endet mit der Nutzung des Gegenstands                 „Daten- und Device Management“ in Abbil-
     von operativen Prozessen. Sie verwenden           oder des Endgeräts. Verhalten und Zustand             dung 1 dar. Die Frontend- und Backend-Ap-
     Prognoseergebnisse der Gegenwart zur              des Produkts werden durch die Sensorik                plikationen des digitalen Geschäftsmodells
     Steuerung von Entscheidungen.                     seiner Daten nach außen sichtbar [4].                 nutzen anschließend die aufbereiteten Da-
         Parallel dazu verspricht Cloud-Compu-             Die übermittelten Sensordaten der End-            ten zur Etablierung des neuen Angebots
     ting „IT-Power aus der Steckdose“. Welche         geräte werden im Rahmen des Datenmana-                oder eines Mehrwerts für den Kunden.
     IT träumt nicht davon? Die IT-Kosten bezie-       gements aufbereitet. Aufgrund der großen                  Abbildung 2 zeigt den Regelkreis, der
     hen sich damit auf die tatsächliche Nutzung       Menge und Variabilität der Sensordaten                durch Analytik-Maßnahmen geschlossen
     und auf Preismodelle, die nutzungsbezo-           wird die Verarbeitung in der Regel als Fast-          wird. Diese Maßnahmen umfassen neben
     gen abrechnen. Betriebswirtschaftlich ist         Data [5] implementiert. Die notwendige                der Erfolgsmessung, die in Form eines klas-
     somit eine Wandlung der Kapitalbindung            Geschwindigkeit bei der Datenaufnahme                 sischen Controllings über einer BI-Welt
     durch IT-Infrastruktur (CAPEX) in operative       und Verarbeitung wird über Architekturen              stattfindet, auch eine explorative Erken-
     Betriebskosten (OPEX) möglich.                    erreicht, die sich über mehrere Ebenen des            nung von Mustern, etwa des Kunden- und
                                                       Netzwerks erstrecken. Was das Datenvolu-              Produktverhaltens. Ziel ist eine Optimie-
     Analytics bei der Digitalisierung                 men angeht, helfen die Architekturkonzep-             rung des digitalen Geschäftsmodells. Die
     Im Folgenden geht es kurz um die grund-           te des Big Data weiter. Die Streaming-Daten           Optimierung erfolgt meist in einem ex-
     legenden Bausteine eines digitalen Ge-            werden in Near Realtime gefiltert und ana-            plorativen Ansatz, der zeitlich eher unkri-
     schäftsmodells. Anhand dieser Bausteine           lysiert, wobei bereits eine lokale Intelligenz        tisch ist – einem sogenannten „Batch-ori-
     zeigt sich, wie dringend ein Regelkreis aus       zu einer Veränderung der Nutzung führen               entierten Big-Data-Ansatz“. Hierzu zählen
     Big Data und BI benötigt wird. Hieraus mo-        kann (siehe auch „Dunkelverarbeitung“ in              statistische Prognosemodelle ebenso wie
     tiviert sich am Ende die Zusammenlegung           Abbildung 1.)                                         die Ansätze des Deep Learning [6]. Die Mo-
     zu einer analytischen Infrastruktur.                  Im Mittelpunkt vieler digitaler Geschäfts-        delle werden fortlaufend anhand von Test-
         Ein digitales Geschäftsmodell stellt nur      modelle steht oft ein Verbund an Endgerä-             fällen aus der Praxis überprüft und somit
     eine Ausprägung eines klassischen Geschäfts-      ten, etwa Beleuchtungseinheiten, Parkplät-            kontinuierlich verbessert. Die Erkenntnisse
     modells dar, mit der Besonderheit, dass die       ze, Mietobjekte, Connected Car etc., deren            daraus können verwendet werden, um ent-
     Leistungserbringung von der Nutzung der           Verhalten gemeinsam an die veränderten                sprechende Regelwerke auf den Streaming-
     Informationstechnologie abhängt und der           Umweltbedingungen angepasst werden                    Daten für eine Near-Realtime-Filterung und
     Mehrwert für den Kunden meist ein digitales       muss. Hierzu werden fachliche Nachrich-               -Prüfung zu verwenden. Das eher klassische
     und somit virtuelles Produkt ist [3]. Doch ganz   ten an ein lokales oder zentralisiertes De-           Controlling rundet den Regelkreis ab und lie-
     gleich, welche Klassifikation ein angestrebtes    vice Management versandt. Das Device Ma-              fert in einer Ex-post- und betriebswirtschaft-
     digitales Geschäftsmodell besitzt, es wird in     nagement ist nun in der Lage, die logischen           lichen Sicht Informationen zum Geschäfts-
     seiner Ausprägung grundlegende fachliche          Events der unterschiedlichen Endgeräte auf-           modell selbst.

84     www.aoug.at • www.doag.org • www.soug.ch
Cloud-Computing als Fundament für Analytics - Opitz Consulting
BUSINESS NEWS

Die analytische Plattform
Abbildung 3 verdeutlicht das Zusammen-
spiel der Ansätze von Big Data sowie klas-
sischer BI-Welt und beschreibt die Architek-
turkomponenten.
    Sowohl Near-Realtime-Entscheidungs-
findung, klassisches BI als auch Modellbil-
dung für Prognosen fließen beim Aufbau
einer analytischen Architektur mit ein. Es
wird also deutlich, dass sowohl eine klas-
sische BI/DWH-Sicht als auch eine reine
Big-Data-Sicht für sich genommen jeweils
unzureichend wären. Auf eben dieser An-
nahme baut die beschriebene Referenz-
architektur auf. Dieser „analytischen Ar-
chitektur“ liegt die Annahme zugrunde,
dass mittelfristig die klassische, eher Ex-
post-orientierte Business Intelligence mit             Abbildung 2: Der analytische Regelkreis © OPITZ CONSULTING
Data-Warehouse-Ansätzen und die neuen
Big-Data-Ansätze zu umfassenden Archi-
tekturen verschmelzen werden. Auch wenn                Service-Modul, das als SaaS-Lösung imple-             in ein Data Warehouse und ermöglichen
beide Ansätze hinsichtlich der technischen             mentiert sein kann. Des Weiteren gelingt es,          so ein umfassendes finanzielles Control-
Implementierung äußerst verschieden sind,              mit zeitlichem Versatz in Batch-orientierten          ling. Ferner werden die Batch-orientierten
so ist die betriebswirtschaftliche Aufgaben-           statistischen Verfahren die Positionen der            Ansätze verwendet, um neue Muster zu
stellung bei beiden identisch: Beiden geht             Fahrräder mit ihrer Mietdauer sowie mit zu-           erkennen und diese, so möglich, auf dem
es darum, aus Daten Informationen zu ge-               künftigen Events und Großereignissen zu               Stream für eine Near-Realtime-Verarbei-
winnen und das Geschäft durch Analysen                 korrelieren. Aus dieser Korrelation ergeben           tung zu implementieren. Das Fallbeispiel
besser steuern zu können.                              sich sogenannte „Lokalisierungsaufträge“,             zeigt, wie klassische BI-Ansätze und neue
    Am Beispiel eines Geschäftsmodells                 die generiert werden, um Fahrräder an be-             Big-Data-Ansätze mit den Spielarten der
zum Verleih von Fahrrädern wird diese Ver-             stimmte geographische Punkte in die Nähe              Batch-orientierten explorativen Simulation
schmelzung gut sichtbar: In Near Realtime              potenzieller Kunden zu bringen und damit              mit statistischen Modellen und der Near-
analysiert ein Unternehmen die Sensor-                 bessere Ausleihquoten zu erreichen. Letzt-            Realtime-Analyse des Datenstroms erst in
daten seiner Fahrräder und erkennt Mus-                endlich fließen die Fahrradinformationen              ihrer Kombination zu wesentlichen Erfolgs-
ter, die auf eine notwendige Reparatur                 nebst Daten aus den betriebswirtschaftli-             faktoren werden.
schließen lassen. Hierzu generiert das Sys-            chen Systemen (Materialwissenschaften, Fi-               Die geschilderten fachlichen Kompo-
tem einen Serviceauftrag an das Backend-               nanzbuchhaltung, Service etc.) aggregiert             nenten benötigen unterschiedliche System-

Abbildung 3: Analytische Architekturen bei der Digitalisierung © OPITZ CONSULTING

                                                                                                                             Business News 03/2020        85
Cloud-Computing als Fundament für Analytics - Opitz Consulting
Auf Datenschatzsuche mit Deep Learning

     Abbildung 4: Zukunftsweisende hybride Infrastrukturen © OPITZ CONSULTING

     infrastrukturen. Daher bilden hybride Inf-           An dieser Stelle liefert die klassische BI-Welt   Für eine Cloud-Lösung sprechen einige
     rastrukturansätze unter Einbeziehung von             einen Mehrwert als Lieferant von qualitäts-       Vorteile: Beim Betrieb einer Cloud-BI-Lö-
     Cloud-Lösungen ein passendes Fundament               gesicherten Daten. Voraussetzung hierfür          sung mit eigenen Lizenzen im Rahmen ei-
     für die analytische Architektur.                     sind allerdings eine übergreifende Gover-         ner IaaS-Lösung ist die Unternehmens-IT
                                                          nance beim Datenmanagement sowie die              mit den gleichen IT-Service-Prozessen be-
     Hybride Cloud-Lösungen                               Transparenz über die Nutzung relevanter           lastet wie bei einer On-Premises-Lösung.
     Die meisten Unternehmen nutzen bereits               zentraler Daten.                                  Im Gegensatz dazu entfallen bei einer PaaS-
     eine Vielzahl von Cloud-Lösungen mit un-                Abbildung 4 stellt die unterschiedli-          Lösung mit nutzungsabhängiger Abrech-
     terschiedlichen Liefer- und Servicemodel-            chen Implementierungsansätze inklusive            nung die direkten Lizenzkosten ebenso wie
     len. Dies gilt für BI-Branchenlösungen, die          der Cloud-Ansätze für analytische Lösun-          die Verantwortung für wesentliche IT-Ser-
     vermehrt als SaaS-Lösungen angeboten                 gen in einem Blue-Print für eine hybride          vice-Prozesse. Jedoch müssen bei PaaS (wie
     werden, aber auch für PaaS-Lösungen für              Infrastruktur der analytischen Welt dar.          auch bei SaaS) die internen Verrechnungs-
     Big Data oder BI-Suiten. So ist es nicht ver-        Hier gibt es kein Richtig oder Falsch, son-       algorithmen angepasst werden.
     wunderlich, dass ein ganzheitlicher An-              dern Entscheidungen müssen situativ auf               Bei Pilot-Projekten oder einem Proof-of-
     satz für analytische Lösungen notwendig              Basis aktueller Anforderungen getroffen           Concept (PoC) hat ein Cloud-Ansatz Vortei-
     wird. Der ganzheitliche Ansatz verschafft            werden.                                           le für die Time-to-Value [7]. In vielen Fällen
     hybriden Ansätzen bei analytischen Lö-                  Abbildung 4 zeigt unterschiedliche Sze-        ermöglichen die Anbieter von Cloud-Lö-
     sungen bei allem Wildwuchs eine ordnen-              narien für die Implementierung einer BI-          sungen
     de Sicht.                                            oder Big-Data-Lösung:
         Anstatt auf die sich so entwickelnde De-                                                           •   eine schnelle Bereitstellung der benötig-
     zentralität mit Bestrebungen zur Zentrali-           •   Nutzung von Public-Cloud-Lösungen                 ten Systemressourcen inklusive der Soft-
     sierung und Standardisierung zu antworten                ohne eigene Lizenzen                              ware selbst,
     und somit wieder Geschwindigkeit und In-                 – als SaaS-Lösung                             •   eine umfassende Testumgebung,
     novation zu hemmen, kann die IT im Rah-                  – als PaaS-Plattform für BI oder Big Data     •   eine nutzungsabhängige Abrechnung,
     men hybrider Cloud-Lösungen einen „Design            •   Nutzung eigener BI- und/oder Big-Data-        •   die leichtere Einführung von modernen
     for Change“-Ansatz verfolgen und die analy-              Lizenzen                                          Lean-Startup-Ansätzen nach dem „Fail
     tische Architektur auf einer reaktiven Infra-            – in einer Public-IaaS-Lösung                     fast, fail early“-Prinzip und deren Nut-
     struktur implementieren.                                 – in einer Private-Cloud-Lösung                   zung für den PoC.
         Bei dezentralen Ansätzen treten schnell              – On-Premises auf der eigenen Infra-
     Herausforderungen an die Datenqualität                      struktur                                   Unternehmen beginnen verstärkt mit der
     auf. Insbesondere sind Inkonsistenzen bei            •   Nutzung einer Integrationsplattform für       Implementierung von Data Lakes [8][9].
     der Nutzung von Stamm-, Meta- und Refe-                  die Datenbewirtschaftung                      Eine Vielzahl von neuartigen Daten werden
     renzdaten zu beobachten. In der Folge sinkt              – in einer Public Cloud (Cloud Based          in die Analysen einbezogen: Sensordaten,
     das Vertrauen in die Analysen und die de-                   Integration)                               Lokalisierungsdaten, Geodaten, Text Mes-
     zentralen Plattformen geraten unter Druck.               – On-Premises                                 sages, Log File etc. Die Heterogenität dieser

86     www.aoug.at • www.doag.org • www.soug.ch
Cloud-Computing als Fundament für Analytics - Opitz Consulting
BUSINESS NEWS

Daten, die Variabilität der Datenstrukturen     Endgeräten und das Einspielen fehlerhafter       & Analytics: KI und Maschinelles Lernen auf
und die schnellen Zyklen der Formatände-        Daten auf die IoT-Plattform. Normalerwei-        dem Vormarsch“ (eBook, deutsch, 70 Seiten,
rungen sind mit den klassischen Datenbe-        se besteht kein ausgeprägter Datenschutz.        PDF 13,2 MB, IT Verlag für Informationstech-
wirtschaftungsprozessen aus der BI-Welt         Für den Fall eines Datenverlusts bietet sich     nik GmbH 2019). Wir danken für die freundliche
schwerlich realisierbar. Ferner lassen diese    für das Backup eine Cloud-Lösung als Platt-      Genehmigung.
Daten sich nur mit hohem Aufwand in die         form an.
notwendigen relationalen Strukturen wie            Für das Balance-Verhältnis zwischen On-       Quellen und Anmerkungen
                                                                                                 [1] Tim Cole: Digitale Transformation,
zum Beispiel Star-Schemata überführen. An       Premises-Lösungen und Cloud-Lösungen                  Franz Vahlen Verlag 2015
dieser Stelle sind NoSQL-Datenhaltungen         steht das „Center of Gravity“ [11]. Es setzt     [2] Dominik Bial: IoT erfordert neues Denken,
                                                                                                      BI-Spektrum 02-2016
[10] auf dem Vormarsch und die Data-Lake-       den Anteil der Cloud-Lösungen in Bezug           [3] Thomas Bieger, Stephan Reinhold: Innovative
Konzepte lassen die Ablage der Daten in he-     zu den On-Premises-Installationen. Aus die-           Geschäftsmodelle: Konzeptionelle Grundlagen, Ge-
                                                                                                      staltungsfelder und unternehmerische Praxis. 2011
terogenen Datenhaltungen zu.                    sem Verhältnis lassen sich wichtige Schlüs-
                                                                                                      in: T. Bieger, D. zu Knyphausen-Aufseß, C. Krys (Hg.),
    Neben den betriebswirtschaftlichen Über-    se ziehen, denn: Je höher der Einsatz un-             Innovative Geschäftsmodelle, Springer Verlag 2011
                                                                                                 [4] Ferner kann der Gegenstand auch ein Smart Device
legungen hinsichtlich Investitionsschutz und    terschiedlicher Cloud-Lösungen ist, desto
                                                                                                      wie etwa auch ein Tablet oder Smartphone sein.
Abschreibungszeiträumen sind am Ende vor        eher verschiebt sich auch die Integrations-      [5] BITKOM, Frauenhofer (Hg.): Big-Data-Technologien –
allem zwei Kriterien bei der Entscheidung für   plattform in die Cloud und rückt damit nä-            Wissen für Entscheider, https://www.bitkom.org/
                                                                                                      Publikationen/2014/Leitfaden/Big-Data-Technologien-
oder gegen die Cloud-Lösung ausschlagge-        her an den Ursprung der Daten.                        Wissen-fuer-Entscheider/140228-Big-Data-
bend: der Datenschutz und die Kosten.                                                                 Technologien-Wissen-fuer-Entscheider.pdf
                                                                                                      (Download Juni 2015)
                                                Fazit                                            [6] Einen guten Einstieg erhält man auf dieser Website:
Datenschutz                                     Die Verbreitung von Cloud-Lösungen ist                http://deeplearning.net/ (Download 10/2016)
                                                                                                 [7] Nello Franco: Time To Value: A Key Metric, https://
Beim Datenschutz ist es notwendig, die          unaufhaltsam. Unterschiedliche Liefer- und            blog.nellofranco.com/2013/08/25/time-to-value-a-
gewachsenen, oft schon veralteten Daten-        Servicemodelle nehmen Einzug in die Un-               key-metric/ (Download 10/2016)
                                                                                                 [8] Tamara Dull: Data Lake vs Data Warehouse: Key
schutzbestimmungen und Regelungen zu            ternehmen, hybride Ansätze beim Cloud-                Differences, http://www.kdnuggets.com/2015/09/
hinterfragen, um die Entscheidung gegen         Computing werden die Regel. Die Client/               data-lake-vs-data-warehouse-key-differences.html
                                                                                                      (Download 10/2016)
eine Cloud-Lösung nicht vorschnell zu tref-     Server-Revolution hat uns gelehrt, die Ver-      [9] Matthias Reiss und Stephan Reimann: Das Data Lake
fen. Dabei empfiehlt es sich, keine zentrale    breitung der Cloud-Lösungen seitens der               Konzept: Der Schatz im Datensee, https://www.it-
                                                                                                      daily.net/it-management/big-data-analytics/11222-
übergreifende Entscheidung für alle BI- und     zentralen IT zu unterstützen, anstatt als             das-data-lake-konzept-der-schatz-im-datensee
Big-Data-Lösungen zu treffen, sondern zu-       „Bremser“ von Innovation aufzutreten.                 (Download 10/2016)
                                                                                                 [10] Eine Übersicht und Einführung findet sich unter
nächst die relevanten Datenobjekte für den         Auch der Big-Data-Zug rollt. Und für eine          http://nosql-database.org/ (Download 10/2016)
analytischen Bereich zu definieren und da-      zentrale BI-Einheit im Unternehmen ergibt        [11] Jim Harris: The Cloud is shifting our Center of Gravity,
                                                                                                      http://www.ocdqblog.com/home/the-cloud-is-
raufhin eine Entscheidung für das jeweilige     es wenig Sinn, die Big-Data-Welle einzu-              shifting-our-center-of-gravity.html (Download am
Sub-Set zu treffen. Abgesehen davon sind        dämmen. Wie geschildert ergänzen sich die             28.5.2015)

alle in Abbildung 4 aufgeführten Spielarten     beiden Facetten analytischer Fragestellun-
der Implementierung realistisch und sollten     gen gerade im Hinblick auf die kontinuierli-
geprüft werden.                                 che Verbesserung von digitalen Geschäfts-
                                                modellen. Aus diesem Grunde werden die
Kostentreiber                                   zentralistische BI-Welt und die eher fö-
Ein wesentlicher Kostentreiber ist der Preis    derale Big-Data-Welt zu einer neuartigen
für die Datenspeicherung und den Daten-         analytischen Plattform verschmelzen. Das
export von einer Cloud-Infrastruktur in eine    Thema der Governance der analytischen
andere Infrastruktur. Je größer die Daten-      Plattform wird in dem Zusammenhang ein
menge ist, die aus der Cloud in BI- und Big-    neues, wichtiges Handlungsfeld.
Data-Systeme fließt, desto preiswerter wird        Auch etablierte Denkmuster der zen-
eine Inside-Lösung im Unternehmensnetz-         tralen Plattform werden sich wandeln.
werk sein. Aktuell sind die Preismodelle der    Zu dynamisch ist der Markt und zu groß
Cloud-Anbieter nur für konkrete Anwen-          sind die Chancen neuer Geschäftsmodelle
dungsfälle vergleichbar.                        durch neue Technologien. Der „Design for                          Rolf Scheuch
   Eine Besonderheit besteht in der Near-       Change“-Gedanke hält Einzug in die Denk-               rolf.scheuch@opitz-consulting.com
Realtime-Verarbeitung durch Streaming-          muster und Cloud-Computing wird zu ei-             Rolf Scheuch ist Diplom-Mathematiker,
Lösungen, Fast-Data-Ansätze, Complex            nem entscheidenden Hilfsmittel, um die             geschäftsführender Gesellschafter und
                                                                                                   Mitbegründer von OPITZ CONSULTING; er
Event Processing und Realtime-Analytik,         Time-to-Value zu reduzieren und Flexibili-         verantwortet seit 2011 als Chief Strategy
wie in Abbildung 3 aufgeführt. Diese Lö-        tät zu erhöhen. Cloud-Computing wird ein           Officer die strategische Ausrichtung der Un-
                                                                                                   ternehmensgruppe. Heute arbeitet er zudem
sungsansätze findet man häufig beim Inter-      Fundament der neuen analytischen Platt-            als Management-Coach, hält Fachvorträge und
net der Dinge mit einer Vielzahl heteroge-      form werden.                                       ist Autor diverser Bücher und Publikationen.
                                                                                                   Schwerpunkt des Management-Coachings der
ner Sensordaten. Die IoT-Plattformen selbst                                                        letzten Jahre war die veränderte Rolle der IT
liegen in der Regel schon außerhalb des         Der Artikel von Rolf Scheuch erschien erstmals     durch die Digitalisierung mit den spezifischen
                                                                                                   Themen Agilität, Right Sourcing, föderale
Unternehmensnetzwerks und die Security          unter dem Titel „Die Zukunft von BI und Big        Governance und Innovationsfähigkeit der IT.
bezieht sich auf einen Zugriffschutz zu den     Data“ im Rahmen der Publikation „Big Data

                                                                                                                        Business News 03/2020                    87
Sie können auch lesen