Trend- und Themenradar - INFOMOTION GmbH

Die Seite wird erstellt Darian Bittner
 
WEITER LESEN
Trend- und Themenradar - INFOMOTION GmbH
Trend- und Themenradar
Trend- und Themenradar - INFOMOTION GmbH
INFOMOTION TREND- UND THEMENRADAR FÜR
BUSINESS INTELLIGENCE UND BIG DATA IN DER DACH-REGION
Der INFOMOTION Trendradar verschafft Ihnen einen umfangreichen Überblick über aktuelle und zukünftige
Themen und Trends der Bereiche Business Intelligence und Big Data im DACH-Raum. Er hilft Ihnen insbesondere
dabei, Entwicklungen unterschiedlicher Trends gezielt einschätzen zu können.

Der Trendradar beruht auf der umfangreichen Projekterfahrung unserer Beratungsexperten und dem fundierten
Know-how des INFOMOTION Innovations- und Wissensmanagements. Durch kontinuierliche Analysen fließen
Veränderungen innerhalb des relevanten Marktes der DACH-Region in den Trendradar mit ein. Zusätzlich setzen
wir uns ausführlich mit den Roadmaps der Software-Hersteller auseinander.
                                                                                                                 MARKUS ENDERLEIN
Nutzen Sie den INFOMOTION Trendradar, um sich einen Überblick über die vorherrschenden Themen und                Business Unit Manager
zukünftigen Trends im Bereich Business Intelligence und Big Data zu verschaffen. Um Sie diesbezüglich auf dem    Strategy & Digital Solutions
neuesten Wissens- und Informationsstand zu halten, werden wir den Trendradar und dessen Inhalte kontinuierlich
aktualisieren und weiterentwickeln.

Sollten Sie detaillierte Fragestellungen zu einzelnen Themenfeldern haben bzw. wissen wollen, wie Trends Ihren
Geschäftsbereich und Ihr Umfeld beeinflussen und wie Sie innovative Technologien und Methoden
nutzenbringend einsetzen können, kontaktieren sie uns.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                2
Trend- und Themenradar - INFOMOTION GmbH
Unser Erfolgsgeheimnis? We love data!

BUSINESS INTELLIGENCE, BIG         9 STANDORTE
                                                           15 JAHRE WACHSTUM      370+ MITARBEITER
DATA & DIGITAL SOLUTIONS           DACH REGION

350+ KUNDEN                                                                       INFOMOTION DIGITAL
                                   FULL SERVICE-ANBIETER   STARKE KOOPERATIONEN
ALLER BRANCHEN                                                                    INNOVATION LAB

© INFOMOTION GmbH   20. Mai 2019                                                                       3
Trend- und Themenradar - INFOMOTION GmbH
INNOVATIONS- UND TRENDBEWERTUNG BEI INFOMOTION

           PRODUKTMANAGEMENT                                 WISSENSMANAGEMENT

                    Analysten      5                             Kompetenzfelder     229

          Roadmap & Strategie                Business            Wissenschaftliche
                                   7                                                 113
            Produkthersteller              Development               Arbeiten

              Projekterfahrung     >4T      BI-Services            Forschungs-       2
                   Kunden                                            projekte
                                         INFOMOTION Trend-
                                          und Themenradar             Interne        15
                     Vertrieb
                                                                 Expertengruppen

                                                                  Innovations-
            Expertennetzwerke
                                                                  management

© INFOMOTION GmbH   20. Mai 2019                                                           4
INFOMOTION TREND- UND THEMENRADAR FÜR DEN
BI- UND BIG DATA-MARKT IN DER DACH-REGION

                AKTUELL                                   MITTELFRISTIG                        LANGFRISTIG                                ZUKUNFT
    Self-Service BI    BI Competency                 Process      Data Science /               Self-Service                   Natural Language
                        Center / ACE                 Mining         Data Labs                Data Preparation                    Generation

          Social                                                                                   Data Warehouse                    Natural Language
                            BI & Data               Visual Analytics &     Machine
       Intelligence                                                                                  Automation                      Question Answering
                           Governance                Data Discovery        Learning
                                                                                                       Search-Based                      Data Storytelling
          Data Quality                                                                                 Data Discovery
                                    Mobile BI          Collaborative BI       Predictive
          Management
                                                                               Analytics                                                       Cognitive BI
                                                                                                             Logical Data
                                                                 Metadata
              Consolidation               Planning                                 IoT Analytics              Warehouse
                                                                Management                                                                             Blockchain
                                                                                                                      Analytics as
                                                                     Data Catalog       Data Lake                      a Service
                Near- / Real-Time               Information
                Data Warehousing                                                                                                Open &
                                                   Design                       Data           Cloud BI                       external Data
                                                                            Virtualization
                                                                                                                                          Analytical
                         Geo & Location                                                              Text Analytics
                                                       Data Mining                   Operative                                              Apps
                          Intelligence                                                                                                                 Prescriptive
                                                                                                               Agile BI

                                                                                                                                                                      Version Q2/2019
                                                                                   BI & Analytics
                                                                                                                                                        Analytics
                                   Master Data                Analytical                       Big Data /              Event Stream
                                   Management                 Databases                      Hadoop Ecosys.             Processing

© INFOMOTION GmbH   20. Mai 2019                                                                                                                                                 5
AGILE BUSINESS INTELLIGENCE

Definition:
Agile BI ist ein kontinuierlicher, strategischer Ansatz, um innerhalb einer Organisation vorhersehbare und unvorhersehbare Anforderungen flexibel
und lösungsorientiert binnen möglichst kurzer Zeit und mit hohem Qualitätsanspruch erfüllen zu können. Agilität beschreibt hierbei die Fähigkeit
einer Organisation, flexibel, aktiv, anpassungsfähig und mit Initiative in Zeiten des kontinuierlichen Wandels zu handeln.

Use Cases:                                                                                                               Anbieter:
› Kurzfristige Umsetzung neuer Anforderungen
› Nutzung von Sandboxing zur Unterstützung von temporären Bedarfen & Erprobung von Ansätzen
› Unterstützung von Self Service BI

Status Quo und Ausblick:
› Viele Unternehmen sind aktuell sehr gut in der Umsetzung stabiler und qualitätsgesicherter Enterprise Data
  Warehouse Lösungen. Insbesondere im Bereich Agile BI fehlt es vielen aber noch an Methodik, Mindset und
  unterstützender Architekturen und Tools.
› Agile BI wird im Zuge der kontinuierlich weiter steigenden Marktgeschwindigkeit eine wesentliche Fähigkeit des
  BICCs. In absehbarer Zeit wird Agile BI für alle BICCs im Kontext einer bimodalen IT umgesetzt werden.
› Sandboxes, agiles PM und Self Service BI bzw. Data Preparation werden hier wesentliche Erfolgsfaktoren sein.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                    6
ANALYTICAL APPS

Definition:
Analytical Apps sind Applikationen, die für einen spezifischen analytischen Use Case entwickelt werden. Hierbei stehen insbesondere die Themen
Verbesserung der User Experience und reduzierte Komplexität im Vordergrund. Anwender von Analytical Apps sollten sich auf den gewählten Use
Case konzentrieren und die bereitgestellten Informationen mit höchster Effizienz nutzen können. Die Skill-Anforderungen an die Anwender werden
damit deutlich reduziert.

Use Cases:                                                                                                           Anbieter:
› Maßgeschneiderte Applikationen für ausgewählte Zielgruppen und ausgewählte Use Cases
› Business Intelligence ohne klassisches Business Intelligence Frontend
› „BI for the Masses“ durch Applikationen mit sehr hoher Usability

Status Quo und Ausblick:
› Aktuell existieren noch sehr wenige Analytical Apps. Häufig werden Kennzahlen und Auswertungen in andere –
  teilweise operative – Apps integriert.
› Der Umfang an Analytical Apps wird unseres Erachtens auf der einen Seite durch Entwicklungen der Standard-
  Software-Anbieter im Bereich ERP, CRM und SCM langsam ansteigen.
› Auf der anderen Seite hat z.B. SAP mit FIORI ein Framework bereitgestellt mit dem sich im Unternehmenskontext
  eigene Apps mit vertretbarem Aufwand entwickeln lässt.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                 7
ANALYTICAL DATABASES

Definition:
Analytical Databases sind spezifische Datenbanksysteme für analytische Lösungen. Diese unterstützen im Gegensatz zu klassischen Datenbanken
die typischen Lese- und Schreibmuster von analytischen Anwendungen besser und führen damit zu einer deutlichen Performance-Optimierung.
Hierzu gehören insbesondere In-Memory, No-SQL und spaltenbasierte Datenbanken.

Use Cases:                                                                                                         Anbieter:
› Beschleunigung von Abfragen ohne notwendige Anpassung der Beladungsstrecken oder der Datenmodelle
› Unterstützung von – interaktiver – explorativer Datennutzung durch geringe Antwortzeiten
› Basis für Operative BI – hierbei erfolgt keine Trennung mehr zwischen operativem und analytischen System –
  aktuell auf Basis von SAP HANA realisierbar
› Reduktion der Systemkomplexität durch Wegfall von Zwischenaggregaten, die bisher nur zur Performance-
  steigerung in das System integriert wurden

Status Quo und Ausblick:
› Die Nutzung spezifischer analytischer Datenbanken setzt sich immer stärker durch.
› Neue BI Lösungen werden aktuell zum größten Teil auf Basis moderner Datenbanksysteme mit spezifischer
  Unterstützung für BI realisiert.

© INFOMOTION GmbH   20. Mai 2019                                                                                                              8
ANALYTICS AS A SERVICE

Definition:
Analytics as a Service (AaaS) bezeichnet die Auslagerung von Business Intelligence und (Advanced) Analytics Prozessen zu einem externen
Dienstleister. Analytics as a Service hat zum Ziel, dass interne Analyseprozesse so zu einem externen Dienstleister ausgelagert werden, dass dieser
Erkenntnisse und Handlungsempfehlungen als Ergebnis zurückliefern kann. Hierbei umfasst AaaS unter anderem Exploration as a Service, Data as a
Service, Data Orchestration as a Service und Insights as a Service.

Use Cases:                                                                                                               Anbieter:
› Reduktion der Belastung der Fachbereiche im Bereich der Analyse von Daten und insbesondere von
  auftretenden Sondersituationen (z.B. Optimierung Kampagnenmanagement, …)
› Optimierung der Analyseergebnisse durch Ergänzung der unternehmensinternen Daten um zusätzliches
  Marktwissen (-daten) und Einsatz von Erfahrungswissen
› Erkennung von bisher unbekannten Zusammenhängen innerhalb der Unternehmensdaten
› Steigerung der Agilität und Flexibilität

Status Quo und Ausblick:
› Aktuell wird dies von wenigen Dienstleistern angeboten und auch von wenigen Unternehmen nachgefragt.
› Durch den größer werdenden Engpass bei hoch qualifiziertem Personal steigt der Bedarf nach externer
  Unterstützung – insbesondere für die unregelmäßigere Durchführung von Spezialanalysen.
› Gleichzeitig wird die Fähigkeit zur optimalen Analyse von Daten und die daraus folgende Ableitung von
  Handlungsempfehlungen ein wesentliches Differenzierungsmerkmal von Unternehmen. Hierdurch wird der
  Einsatz innerhalb eines Unternehmens in den einzelnen Bereichen unterschiedlich stark ausfallen.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                      9
BI & DATA GOVERNANCE

Definition:
BI- & Data-Governance umfasst die Organisation und Prozesse im Kontext Business Intelligence und dem Enterprise Data Management.
Governance stellt hierbei sicher, dass innerhalb eines Unternehmens die Informationsbedürfnisse zur Erfüllung der Geschäftsziele abgedeckt, die
Ressourcen verantwortungsvoll eingesetzt und Risiken angemessen überwacht werden. In den Governance-Strukturen sind sehr häufig langjähriges
Erfahrungswissen in Form von Best Practices abgebildet.

Use Cases:                                                                                                           Anbieter:
› Ordnungsrahmen für das strategische Informationsmanagement
› Festlegung, Steuerung und Überwachung von Vorschriften, internen Regeln sowie gesetzlichen Vorgaben und
  Compliance-Anforderungen im Bezug auf Daten und deren Verwaltung
› Festlegen von Richtlinien und Vorgängen, um ein proaktives und effektives Datenmanagement sicher zu stellen
› Transparenz und Verwaltung eines Data Lake

Status Quo und Ausblick:
› BI-Governance ist in vielen Unternehmen noch nicht im notwendigen Maße realisiert. Dadurch kommt es zu
  Schwierigkeiten in der Kommunikation und in der effizienten Umsetzung der geplanten BI- & Datenziele
› Durch die steigenden Relevanz von BI und allgemein Daten und der gleichzeitig steigenden Komplexität der IT-
  Landschaft rückt das Thema Governance stärker in den Fokus der Unternehmen.
› Zur Umsetzung werden bisher in der lokalen Betrachtung einer Anwendung nicht berücksichtige Themen wie z.B.
  Master Data Management und Metadata Management für das Unternehmen realisiert.

© INFOMOTION GmbH   20. Mai 2019                                                                                                              10
BI COMPETENCY CENTER / ANALYTICS CENTER OF EXCELLENCE

Definition:
Das BI Competency Center (alternativ Analytics Center of Excellence, kurz ACE) ist ein funktionsübergreifendes Team innerhalb einer Organisation.
Es übernimmt Aufgaben, Rollen, Verantwortlichkeiten und Vorgänge, um die wirksame Anwendung der Business Intelligence innerhalb einer
Organisation zu unterstützen und zu fördern.

Use Cases:
› Im Bereich BI-Management: Ausgestaltung des BI-Programms, der Projekte, Maßnahmen und Initiativen sowie
  Standardisierung von BI-Aktivitäten und Vereinheitlichung der Vorgehensweisen, Methoden und Verfahren
› Im Bereich Architektur: fachlich ausgerichtet Modellierung der analytischen Unternehmensdaten und -flüsse
  sowie Festlegung eines technologischen Gesamtkonzepts
› Im Bereich BI-Unterstützung: Personalentwicklung, um BI effizient im Unternehmen einsetzen zu können und
  Unterstützung von BI-Anwendern und Projektteams in technischen und fachlichen Problemstellungen
› Im Bereich BI-Umsetzung: Entwicklung und Durchführung von BI-Projekten unter Berücksichtigung der BI-
  Strategie sowie des Betriebs der BI-Lösungen

Status Quo und Ausblick:
› Einige Unternehmen haben für Business Intelligence noch keine spezifische Organisationsform etabliert sondern
  betrachten BI-Lösungen als eine Variante einer IT-Applikation. Hierdurch kann in diesen Unternehmen nicht der
  geplante Nutzen von Business Intelligence realisiert werden.
› Aufgrund der steigenden und erkannten Relevanz von Business Intelligence in den Unternehmen werden BICCs
  etabliert bzw. schon in einem zweiten oder dritten Anlauf optimiert.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                11
BIG DATA / HADOOP ECOSYSTEM

Definition:
In einer engeren Betrachtung setzen wir Big Data mit dem Hadoop Ecosystem gleich. Eine weitere Betrachtung umfasst zusätzlich Use Cases bzw.
Einsatzszenarien aus dem Bereich der digitalen Transformation. Big Data wird häufig über die Begriffe Volume (sehr große Datenmengen), Variety
(Vielfalt von Datentypen und -quellen) und Velocity (Geschwindigkeit in der Verarbeitung der Daten) beschrieben.

Use Cases:                                                                                                            Anbieter:
› Anbindung neuer Datenquellen (IoT, Audio, Video, Text, …)
› Performante Verarbeitung sehr großer Datenmengen
› Offloading und Active Archive für operative oder analytische Anwendungen
› Plattform für Data Science und Explorative Analytics
› Plattform für Lösungen im Bereich verteilte Algorithmenausführung

Status Quo und Ausblick:
› Aktuell beschäftigen sich sehr viele Unternehmen mit dem Thema Big Data und dabei insbesondere mit der
  Validierung eines Einsatzes von Hadoop. Operative Systeme haben hingegen bisher nur wenige Unternehmen
  im Einsatz.
› Lösungen wie Hadoop oder andere Big Data Lösungen für die Verarbeitung von Massendaten mit sehr hoher
  Performance werden mittelfristig aber in jedes BI-System als eine notwendigen Komponente integriert.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                 12
BLOCKCHAIN

Definition:
Die Blockchain ist eine manipulationssichere Dokumentation von Transaktionen und Besitzverhältnissen, die Daten mittels Distributed-Ledger-
Technologie in einem verteilten Peer-to-Peer-Netzwerk speichert. Blockchains können neben digitalen Assets (z.B. Geld, Lizenzen) auch
Wertstellungen aus Verträgen und Identitäten mit hoher Geschwindigkeit ohne Intermediäre transferieren. Durch Smart Contracts kann die Logik
eines Vertrags in Form von Code bzw. Algorithmen prozessiert werden. Blockchain-Technologie kann als Blockchain as a Service bei den meisten
Cloud-Anbietern bezogen werden

Use Cases:                                                                                                             Anbieter:
› Speichern und Verarbeiten von Identitäten
› Verbriefung von Eigentum z.B. durch ein Grundbuch
› Transfer von digitalen Assets
› Ausführen von Vertragslogiken durch Smart-Contracts

Status Quo und Ausblick:
› Alle großen Technologie-Anbieter haben in die Blockchain-Technologie investiert, kooperieren mit einem
  Startup oder sind Teil eines Konsortiums. Mit über 100 Firmen (u.a. Airbus, Deutsche Bank, SAP) bildet Hyperledger
  das wichtigste Konsortium
› Die Technologie findet in ersten Machbarkeitsstudien und Projekten Anwendung. Bisher sind allerdings nur wenig
  produktive Anwendungsfälle erfolgreich realisiert.
› Blockchain bietet als weitere Basistechnologie verschiedene Einsatzmöglichkeiten. Ob die Technologie in den
  nächsten Jahren eine große Verbreitung findet hängt von der Identifikation eines wesentlichen Uses Cases ab.
© INFOMOTION GmbH   20. Mai 2019                                                                                                               13
CLOUD BI

Definition:
Möglich sind verschiedene Varianten und Umsetzungsgrade von Cloud BI, die sich hinsichtlich der Verteilung der Funktionalitäten, Anteil an Cloud
Nutzung und Betreiber der Cloud unterscheiden. Im Vergleich zu traditioneller BI ermöglichen diese Lösungen mehr Agilität, Schnelligkeit und
Funktionsumfang sowie eine schnellere Implementierung und kürzere Updatezyklen. Zusätzlich werden neue Features und Funktionen sofort
bereitgestellt und verbesserte Kollaborationsmöglichkeiten sowie das Outsourcing von BI-Fachkenntnissen möglich. Eine flexible Anpassung der
technischen Ressourcen und Nutzerzahlen machen dies möglich.

Use Cases:                                                                                                              Anbieter:
› Komplette BI in die Cloud auslagern
› Hybride Modelle: On-Premise Datenquelle mit BI in der Cloud vs. On-Premise BI mit Cloud-App als Interface
› Die Cloud BI als Sandbox für Entwicklungs- und Testumgebungen
› Nutzung von spezialisierten Analytics Technologien aus der Cloud

Status Quo und Ausblick:
› Jeder etablierte BI Hersteller bietet eine Cloud BI Lösung an. Diese sind hinsichtlich ihrer Funktionalität mit On-
  Premise Lösungen vergleichbar. Bedenken gegen Cloud BI betreffen die Sicherheit und Compliance, fehlendes
  Vertrauen und der Wunsch, Unternehmensdaten intern zu halten.
› Technische Erleichterungen und Preissetzung führen aber auch in der DACH-Region zu einem langsamen
  Anstieg in der Nutzung.
› Neue Data & Analytics Lösungen werden mittelfristig alle Cloud-Ready entwickelt.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                   14
COGNITIVE BI

Definition:
Mittels Cognitive Computing wird Business Intelligence „menschlicher“. Unter anderem kombiniert es Technologien wie das Machine Learning,
Data Mining und Natural Language Processing. Ziel ist es, den Umgang mit Daten natürlicher zu machen: Sprache, Bilder und Videos werden
maschinell (auch in Echtzeit) verarbeitet und die Interaktion mit den Anwendern wird der zwischenmenschlichen Kommunikation immer ähnlicher.

Use Cases:                                                                                                         Anbieter:
› „Welche Menge Rohmetall soll ich bestellen?“ führt bspw. zu Daten über den Bestand, die Aufträge und die
  aktuellen Preise mit Prognosen und Analysen
› Im Call Center führt die Echtzeitanalyse der Gespräche zu relevanten Informationen und Themenvorschlägen
› Connected Car – Daten führen zu intelligenten Prognosen hinsichtlich der Verkehrsentwicklung und mehr
  Sicherheit
› Automatisierte Kundenberatung z.B. in Chats oder e-Mail
› Content Automation im Digital Marketing

Status Quo und Ausblick:
› Die Möglichkeiten der Cognitive BI sind abhängig von Entwicklungen der einzelnen Technologien.
› IBM Watson stellt das umfangreichste Angebot dar. Für einzelne Technologien oder spezielle Anwendungsfälle
  gibt es viele andere Anbieter.
› Top CEOs erwarten disruptive Veränderungen ihrer Branche durch Cognitive Computing.

© INFOMOTION GmbH   20. Mai 2019                                                                                                               15
COLLABORATIVE BI

Definition:
Collaborative BI ist die Zusammenführung von Business Intelligence mit Collaboration Funktionalitäten, um eine verbesserte datengetriebene
Entscheidungsfindung in Gruppen zu unterstützen. Wesentlich ist hierbei eine Verbesserung der Kommunikation zwischen Analysten und
Entscheidern. Darüber hinaus sollen Collabarotive BI Lösungen die langfristige Speicherung von Erkenntnissen aus einzelnen Analysen stärker
unterstützen und einen gemeinsamen Prozess zur Entscheidungsfindung ermöglichen.

Use Cases:                                                                                                             Anbieter:
› Kommentierung von Analyseergebnissen                                                                                 Jeder Anbieter von BI-
› Unterstützung von Abstimmungsprozessen                                                                               Produkten hat in den
                                                                                                                       letzten Jahren
› Speicherung von Erkenntnissen zu vergangenen Analyseergebnissen
                                                                                                                       Collaboration
                                                                                                                       Funktionalitäten in den
                                                                                                                       Produkten ergänzt.
Status Quo und Ausblick:
› Im Vergleich zu traditionellen BI-Tools, die insbesondere einzelne Anwender adressieren unterstreicht der Ansatz
  Collaborative BI den Problemlösungsprozess. Tools erlauben Gruppen, Daten zu analysieren und Informationen
  sowie Ideen auszutauschen. Aktuell reduziert sich dies allerdings häufig auf Kommentierung und Freigabe von
  Analyseergebnissen.
› Gemeinsame Entscheidungsprozesse werden auch zukünftig nur in geringem Maße durch die Unterstützung von
  Collaborative BI Funktionalitäten in Tools aber auch in den internen Prozessabläufen unterstützt.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                 16
CONSOLIDATION

Definition:
Konzerne sind gesetzlich dazu verpflichtet, einen Abschluss nach gesetzlichen Vorgaben zu erstellen. Doch auch das Management sowie
Investoren und Kreditgeber sind daran interessiert, die finanzielle Situation eines Unternehmens zu bewerten. Nur auf dieser Grundlage können die
richtigen Entscheidungen für die Zukunft getroffen werden.

Use Cases:                                                                                                              Anbieter:
› Legale Berichterstattung, Wirtschaftsprüfer-konform, transparent und automatisiert
› Management Konsolidierung als Steuerungsinstrument für den Konzern
› Segmentberichterstattung (Matrix-Konsolidierung)

Status Quo und Ausblick:
› Die Unternehmens- und insbesondere Konzernsteuerung bedarf einer immer tieferen Integration
  unterschiedlicher Prozesse. Ob IST, Forecast oder Plan-Daten, die Konsolidierung sorgt für vergleichbare Daten.
› In Rahmen einer HANA Strategie beschäftigen sich Unternehmen zunehmend mit direkter Datenanbindung und
  Integration der Operativen Prozesses im ERP und Management Informationen. S/4 HANA for Group Reporting
  setzt genau an dem Punkt auf und bietet weitreichende Funktionalitäten, insbesondere für S/4 HANA Kunden.
› Cloud ist sowohl aus IT-Architektonischer Sicht als auch für Anwender ein zentrales Thema, SAP Analytics Cloud
  ermöglicht den direkten Datenzugriff auf ihre SAP BPC Konsolidierung, S/4 HANA for Group Reporting sowie
  diverse andere Datenquellen. Darüber hinaus ist die Konsolidierungslösung S/4 HANA for Group Reporting auch
  in einer Cloud Version verfügbar.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                    17
DATA CATALOG

Definition:
Der Data Catalog liefert als Plattform für die Metadatenanalyse den Einstieg für sämtliche datenbezogene Recherchetätigkeiten im
Unternehmen. Er fungiert jedoch nicht nur als Suchinstrument sondern bietet umfangreiche Kollaborationsprozesse um mit anderen Stakeholdern
der Daten zu interagieren. Durch ein Business Glossar können Datenobjekte beschrieben und bewertet sowie Rückfragen und
Kommentierungsprozesse abgebildet werden. Mit Hilfe von Data Profiling und der Analyse der Beziehung zu anderen Objekten wird eine
Bewertung der Datenbeschaffenheit und Verwendung möglich. Mit Data Lineage und Impact Analysis sind zudem feingranulare Analysen von
Datenbewirtschaftungsprozessen möglich - auch über System und Technologiegrenzen hinweg.

Use Cases:                                                                                                         Anbieter:
› Sammlung und Management sämtlicher Metadaten im Unternehmen, sowohl aus operativen als auch aus
  dispositiven Systemen
› Durch Machine Learning gestützte Beschreibung der Datenobjekte und Domänen im Business Glossar sowie
  Erkennung von Zusammenhängung, Verwendung und Profil der Daten
› Nachvollziehen von Datenflüssen über System- und Technologiegrenzen hinweg
› Kollaboration mit unterschiedlichsten Nutzerklassen aus Fachbereich und IT

Status Quo und Ausblick:
› Durch die Unterstützung von Machine Learning werden Aufwände zur Pflege des Business Glossars reduziert, hier
  sind auch für die Zukunft hohe Potenziale zu sehen
› Neben reinen relationalen und strukturierten Daten können auch polystrukturierte Daten sowie Dokumente
  angebunden werden
© INFOMOTION GmbH   20. Mai 2019                                                                                                              18
DATA LAKE

Definition:
Ein Data Lake resultiert in einer für Analysezwecke optimierten zentralen Datenplattform, die Daten aus mehreren, in der Regel heterogenen
Quellen bereitstellt. Die Zusammenführung und Verdichtung der Daten ist dabei keine notwendige Bedingung. Konzeptions-Integrationsaufwände
werden dadurch drastisch reduziert. Big Data-Technologien ermöglichen sehr günstige Datenhaltung und -verarbeitung. Der Supervised-Ansatz
folgt dem Data Governance First Gedanken unter der Prämisse größtmöglicher Flexibilität.

Use Cases:                                                                                                       Anbieter:
› Sehr schnelle und agile Bereitstellung neuer Datenquellen und -strukturen im Rohformat für die Analyse
› Data Lab für Analytics-Abteilung
› Landing-Zone für ETL/ELT (Extraktionspuffer)
› DWH Off-Loading & aktives Archiv für Quellsysteme
› Voraggregation und -verarbeitung von Massendaten

Status Quo und Ausblick:
› Die Erschaffung eines unternehmensweiten Supervised Data Lake ist ein hochgradig kundenindividuelles und
  komplexes Projekt.
› Durch die rasante Weiterentwicklung des Themas Data Governance auf der einen Seite und der steigenden
  Relevanz von Daten bzw. den darauf aufbauenden Services auf der anderen Seite wird das Thema deutlich an
  Bedeutung zunehmen.
› Data Lakes werden zu einem wesentlicher Baustein in der zukünftigen IT-Architekturlandschaft.
© INFOMOTION GmbH   20. Mai 2019                                                                                                             19
DATA MINING

Definition:
Unter Data Mining versteht man die systematische Anwendung statistischer Methoden auf verfügbare Datenbestände. Die wesentliche
Zielstellung von Data Mining ist das Extrahieren von neuem Wissen aus vorhandenen Daten. Im Gegensatz zur klassischen multivariaten Statistik
steht die Anwendung und empirische Verifikation des extrahierten Wissens im Vordergrund. Data Mining kann zur Regelinduktion als auch
Prognose eingesetzt werden, wobei mit dem Begriff oft das Entdecken von Gesetzmäßigkeiten assoziiert wird.

Use Cases:                                                                                                             Anbieter:
› Warenkorbanalysen: Welche Produkte werden mit welcher Wahrscheinlichkeit gemeinsam gekauft?
  (Assoziationsanalyse)
› Credit Scoring: Welche Merkmale (z.B. Kundenattribute) haben welchen Einfluss auf die Zahlungsbereitschaft?
  (Regression: Factor Importance)
› Betrugserkennung: Welche Einzel-Entscheidungen in Bezug auf bestimmte Attribute führen zu einem Betrugsfall?
  (Entscheidungsbaum, -pfad)

Status Quo und Ausblick:
› Die Themen Data Mining, Machine Learning und Statistik weisen starke Überschneidungen auf. Hierbei variiert
  allerdings häufig die damit verbundene Zielstellung und Ausgangsituation
› Aktuell findet ein Comeback des Data Mining aufgrund stetig steigernder Datenmengen statt.
› Die Einsatzgebiete von Data Mining entwickeln sich kontinuierlich weiter. Zur Unterstützung einer stärkeren
  Verbreitung werden die Data Mining Tools werden weiter vereinfacht werden (Enabler für Citizen Data
  Science).
© INFOMOTION GmbH   20. Mai 2019                                                                                                                20
DATA QUALITY MANAGEMENT

Definition:
Der Begriff Datenqualität umfasst „die Gesamtheit aller Eigenschaften von Daten hinsichtlich der Fähigkeit, die Anforderungen des Anwenders zu
erfüllen (‚meeting user requirements‘ / ‚fitness for use‘)“. Daten und Kennzahlen werden für Unternehmen und deren Produkte zunehmend
wichtiger. Dabei müssen immer mehr Informationen verarbeitet werden und die Ansprüche an die Qualität der Informationen steigen
kontinuierlich. Eine hohe Datenqualität wird in immer mehr Unternehmensbereichen zu einem zentralen Erfolgsfaktor, manchmal sogar zu einer
zwingenden Voraussetzung.

Use Cases:                                                                                                            Anbieter:
› Data Profiling und Data Cleansing
› (permanentem) Data Quality Management
› Metadaten-Management und Masterdaten-Management

Status Quo und Ausblick:
› Das Thema Datenqualität ist heute längst über die IT-Abteilung hinausgewachsen und in den meisten
  Führungsetagen angekommen.
› Die Verbesserung der Datenqualität wirkt sich auf fast alle Unternehmensbereiche aus. Der größte Benefit ist i.A.
  bei der Prozessoptimierung und dem Reporting zu erwarten, gefolgt von Verbesserungen bei der
  Kundenbindung/Kundenansprache, der Vermeidung von Reklamationen, sowie der Einhaltung gesetzlicher
  Bestimmungen (v.a. Meldewesen) und der Einhaltung von Lieferverpflichtungen.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                 21
DATA SCIENCE / DATA LABS

Definition:
Ein Data Lab ist meist eine eigene Unternehmenseinheit, welche das Ziel verfolgt, agile Datenanalysen zu ermöglichen. Zum Aufbau einer solchen
Einheit wird neben den nötigen technologischen Investitionen vor allem ein interdisziplinär ausgebildetes Team an Spezialisten benötigt. Um neue
Erkenntnisse durch erweiterte Analysen zu gewinnen oder die Optimierung von Entscheidungsprozessen durch prototypisch umgesetzte Use Cases
zu diskutieren, eignet sich ein agiles und forschungsorientiertes Vorgehen. Ansätze und Methoden wie das Design Thinking und eine kreative
Atmosphäre unterstützen Data Scientist und Fachexperten bei der gemeinsamen Erarbeitung von innovativen Lösungen und Use Cases.

Use Cases:
› Eine Finanzabteilung wendet sich an das Data Lab für ein besseres Kreditscoring. Das Data Lab entwickelt
  gemeinsam mit Fachanwendern, ein neues Modell, dass auch externe und unstrukturierte Unternehmensdaten
  in die Analyse miteinbezieht.
› Ein Automobilhersteller sucht nach Nutzen in den Daten von Smart Cars, ein Transportunternehmen nach den
  Ursachen und Maßnahmen zur Vermeidung von Verspätungen und bspw. ein Finanzunternehmen nach
  Möglichkeiten Open Data zu nutzen.
› Ein Data Lab bietet eine zentrale Anlaufstelle zur Diskussion von Ideen und fortgeschrittenen analytischen
  Problemstellungen aus den Fachbereichen.

Status Quo und Ausblick:
› Etablierung geschieht als unabhängiges Data Labs wie etwa bei VW, E.ON, Ergo und Bosch oder als Gruppe
  innerhalb einer anderer Abteilung wie bspw. bei Siemens, Daimler, BASF und MAN.
› Zukünftige Expansion von Data Labs und Data Science Competence Center wird erwartet.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                   22
DATA STORYTELLING

Definition:
Beim Data Storytelling geht es darum, dem Empfänger die Bedeutung hinter den Daten zu verdeutlichen und ihn zum Handeln zu motivieren. Mit
Hilfe von Geschichten kann den Daten eine Stimme gegeben werden, die Emotionen beim Zuhörer wecken. Durch das Erzählen einer
Datengeschichte werden neurologische Mechanismen angesprochen die dafür sorgen, dass die Geschichteninhalte schneller übertragen
werden und verständlicher sind als Zahlen und Fakten. Dadurch können Informationen zeitsparend und eindeutig zu dem Empfänger transportiert
werden, wodurch Stakeholder bei der Entscheidungsfindung unterstützt werden. Data Storytelling kann in allen Bereich eines Unternehmens
eingesetzt werden, indem Informationen effizient und nachhaltig transportiert werden sollen.

Use Cases:
› Unternehmensbereiche und -aktivitäten, in denen Informationen durch Daten effizient und nachhaltig
  weitergegeben werden sollen wie bspw:
› Hauptversammlungen sowie Unternehmens-, Vorstands-, Sales-, Produktpräsentationen
› Startup und Business Pitches

Status Quo und Ausblick:
› Im Zuge einer zunehmenden Datennutzung und steigender Datenkenntnisse in Organisationen (Stichwort „Data
  Literacy“) steigen auch die Kenntnisse und Verwendung von Data Storytellings
› Der Einsatz von Data Storytelling im Bereich der Datenvisualisierung, des Dashboardings und bei bedeutenden
  Präsentationen ist bereits gängige Praxis in Großunternehmen
› Softwarehersteller greifen Elemente des Data Storytellings zunehmend über Funktionen in ihren Produkte auf
  wodurch die Methodik indirekt bei einer großen Anzahl an Endanwender Einsatz findet
© INFOMOTION GmbH   20. Mai 2019                                                                                                              23
DATA VIRTUALIZATION

Definition:
Datenvirtualisierung integriert Daten aus verteilten Quellen, von verteilten Orten und Daten mit unterschiedlichen Formaten, ohne dass diese
repliziert werden müssen. Auf diese Weise wird eine einzelne, "virtuelle" Datenebene (Single Point of Truth) geschaffen, die mit einheitlichen
Datenservices zahlreiche Anwendungen und Anwender unterstützt. Datenvirtualisierung ist somit eine Abstraktions- und Datenservice-Ebene.

Use Cases:                                                                                                               Anbieter:
› Vereinfachung der Komplexität & Zusammenführung unterschiedlicher Quellen in einem zentralen Datenmodell
› Reduzierung des Bedarf an Data Marts und Data Warehouses
› Neue Datenquellen können innerhalb von Minuten für Analysen bereitgestellt werden
› Einfache Integration von Echtzeitdaten im Reporting
› Verringerung von Datenredundanz und ETL Prozessen

Status Quo und Ausblick:
› Datenvirtualisierung baut die Brücke zur logischen Verknüpfung alter und bewährter Technologien mit neuen
  technologischen Möglichkeiten, unabhängig vom Ort der Daten.
› Datenvirtualisierung ist die konsequente Weiterentwicklung bestehender Ansätze, wie Data Federation, EII oder
  EAI, ergänzt um User Management, Zugriffssteuerung und Nachverfolg- und Reproduzierbarkeit zum Einsatz in
  einer unternehmensweiten Datenstrategie.
› Die Entkopplung von Quellen und Applikationen erlaubt eine schnelle Umsetzung neuer Reporting- und
  Analytics-Anforderungen und bietet eine hohe Flexibilität gegenüber künftigen Modernisierungszwängen.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                 24
DATA WAREHOUSE AUTOMATION

Definition:
Data Warehouse Automation (DWA) ist ein methodischer und technologischer Ansatz zur automatisierten Generierung von Datenstrukturen und
Beladungsstrecken eines DWHs anhand von standardisierten Design-Patterns. Grundlage hierzu liefert ein ausgereiftes Metadatenmodell, welches
automatisch mit den Information über Strukturen der Quellsysteme befüllt wird. Hierauf aufbauend werden vorab definierte Design-Patterns mit
diesen Metadaten instanziiert, um auf diese Weise das Zieldatenmodell der einzelnen Entitäten zu entwickeln und gleichzeitig lauffähige
Beladungsprozesse zu erzeugt. Durch Customizing der Pattern können ganzheitliche DWH-Lösung erzeugt werden und sämtliche
Implementierungsaufgaben im Rahmen der Generierung berücksichtig werden.

Use Cases:                                                                                                         Anbieter:
›   Vollständige Neuentwicklung eines DWHs (Greenfield) oder Bereitstellung eines Operational Data Stores (ODS)
›   Re-design eines bestehenden DWHs
›   Reverse-Engineering eines Data Marts und Neuentwicklung des Cores (z.B. Wechsel von 3NF zu Data Vault)

Status Quo und Ausblick:
›   DWA besitzt eine große Hebelwirkungen für die Implementierungskosten und die Laufzeit von BI und DWH
    Projekten. Durch den generischen Ansatz können die Aufwände für die reine Implementierung signifikant
    reduziert werden.
›   Der Markt für DWA wächst und die entsprechenden Tools werden immer ausgereifter. Zudem erhöht sich
    kontinuierlich die Abdeckung der möglichen Zieltechnologien. Neben Beladungen, die auf SQL-Prozeduren für
    RDBMS wie MS-SQL und Oracle basieren, existieren auch Generatoren für etablierte ETL-Tools wie Informatica.
›   Aufgrund von Generatoren für Zieltechnologien aus dem Big Data Umfeld profitieren auch diese Projekte von
    DWA. Technologische Einstiegshürden können reduziert und Implementierungszeiten verkürzt werden.
© INFOMOTION GmbH   20. Mai 2019                                                                                                               25
EVENT STREAM PROCESSING

Definition:
Das Event Stream Processing ist die Real-Time Verarbeitung von eingehenden Event-Daten, ohne diese vorab explizit zu speichern. Im Gegensatz
zur klassischen (Micro) Batch orientierten Verarbeitung von Gruppen von Transaktions- oder Stammdaten werden hierbei eingehende Event-
Daten direkt analysiert. Durch die Anwendung automatisierter Verfahren können auf Basis der Event-Daten direkte Aktionen ausgelöst werden.

Use Cases:                                                                                                          Anbieter:
› Direkte Reaktion auf Kundeninteraktionen – zukünftig häufig auch auf Basis von IoT-Daten
› Optimierung des Kundenservices durch die Möglichkeit, individuelle Angebote, basierend auf Echtzeit-
  Aktivitäten zu erstellen
› Frühzeitige Erkennung von Problemen bzw. Defekten in Produkten oder Prozessen zur Unterbindung oder
  Abschwächung weitreichender Auswirkungen.

Status Quo und Ausblick:
› Die Anwendung von Event Stream Processing hat sich in den letzten Jahren häufig auf den Finanzsektor
  konzentriert und wurde dort häufig im zur Betrugserkennung aber auch dem automatisierten Handel eingesetzt.
› Durch die Möglichkeiten und zukünftigen Notwendigkeiten allgemein im Kontext Big Data aber auch im
  speziellen im Bereich IoT ist aktuell bereits eine deutliche Zunahme der Anwendungsfälle erkennbar.
› In vielen Bereich wird der stärkere Einsatz von Event Stream Processing durch die zeitnahen Reaktionen dazu
  führen, dass Produkte und Prozesse beim Nutzer „Smart“ wirken (Smart Products, Smart Services).

© INFOMOTION GmbH   20. Mai 2019                                                                                                               26
GEO & LOCATION INTELLIGENCE

Definition:
Geo & Location Intelligence erweitert das BI-Spektrum um Komponenten zur raumbezogenen Analyse von Daten. Die daraus gewonnenen
Informationen bringen eine zusätzliche Dimension mit sich, die neue Erkenntnisse in Ihren Datenbeständen offenbaren. Dies kann sowohl mit
klassischem Ortsbezug (Geo Intelligence) als auch im erweiterten Sinne mit jeglichen Rauminformationen (Location Intelligence) geschehen.

Use Cases:                                                                                                           Anbieter:
› Beantwortung der grundlegenden Frage nach dem „Wo“
› Visualisierung von räumlichen Verteilungen und Häufungen bzw. Zusammenhängen
› Optimierung des Warenflusses in einem Logistiksystem
› Bewertung von Lagerbewegungen
› Analyse und Steuerung von Kampagnen

Status Quo und Ausblick:
› Datenbestände existieren häufig noch ohne Bezug zu erweiterten Rauminformationen. Diese wertvolle
  Datenquelle gilt es nutzbar zu machen.
› Enormer Zuwachs der Datenmengen im Big Data Umfeld erfordert neue Werkzeuge, um diese verwertbar zu
  machen. Location Intelligence bietet hier einige Komponenten an.
› Spatial-Funktionalitäten haben einen zunehmenden Stellenwert im Bereich des Data Science.
  Rauminformationen stellen neben Zeitinformationen eine grundlegende Datendimension dar.
© INFOMOTION GmbH   20. Mai 2019                                                                                                            27
INFORMATION DESIGN

Definition:
Information Design ist die Visualisierung von Daten in einer Weise, welche ein effizientes und effektives Verständnis ermöglicht. Das umfasst die
Entwicklung von Visualisierungsstandards und Richtlinien für Reports, Dashboards und Präsentationen.

Use Cases:                                                                                                                 Standards:
› Verbesserte Kommunikation innerhalb und zwischen Abteilungen
› Schnellere Entscheidungsfindung auch in neuen Situationen
› Verbesserte Self-Service BI
› Vereinfachung von Visual Analytics

Status Quo und Ausblick:
› Derzeit fehlen geregelte Visualisierungsstandards in Unternehmen.
› Der Trend zu Visualisierungsstandards wird insbesondere in der DACH Region immer relevanter.
› Die Unterstützung von Visualisierungsstandards durch BI-Software wird häufig zu einem KO-Kriterium bei deren
  Selektion.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                    28
IOT (EDGE) ANALYTICS

Definition:
Unter dem Internet of Things versteht man die Verschmelzung von Informations- und Kommunikationstechnik mit der physischen Umwelt. Objekte
sind mit Sensoren, Software, Elektronik und Netzwerkfähigkeiten ausgestattet. Ein virtuelles Abbild des echten Produkts entsteht. Die Nutzung
aktueller Technologien zur Analyse der von IoT Produkten erzeugten Daten nennt man IoT Analytics.

Use Cases:                                                                                                           Anbieter (Software
› Erweiterung bestehender Produkte um innovative Applikationen - retrofitting approach                               Platforms):
› Grundlage neuer Produkte und Services – smart connected products
› Neugestaltung von Geschäftsprozessen – system of systems
› Neue Geschäftsmodelle – Product-as-a-Service

Status Quo und Ausblick:
› Zurzeit werden bestehende Produkte um IoT Komponenten erweitert (Retrofitting Approach).
› Es mangelt häufig noch an einer ausreichenden Anreicherung der IoT Daten mit anderen Daten des
  Unternehmens.
› Daher wird das volle Potential für das eigene Unternehmen und Kunden noch nicht ausgeschöpft.
› IoT wird mittelfristig insbesondere für produzierende Unternehmen zu einem Kernthema.
› Branchenübergreifende Veränderungen und disruptive Marktveränderungen sind zu erwarten.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                29
LOGICAL DATA WAREHOUSE

Definition:
Das Logical Data Warehouse ist ein Architekturansatz, bei dem Daten aus verschiedensten Quellen inkl. einem klassischen Data Warehouse und
weiteren verteilten Datensilos integriert und über eine Schnittstelle verfügbar gemacht werden. Hierbei werden die physischen
Datenübertragungs-Architekturen, welche die Dynamik des Geschäftsfeldes nicht unterstützen bzw. den volatilen Anforderungen und der
Verarbeitung von Massendaten nicht gerecht werden, zunehmend ersetzt. Neue Ansätze, wie der Einsatz einer LDW-Architektur berücksichtigen
Anwendungen, welche über die Datensilo-zentrierte Implementierung hinausgehen.

Use Cases:                                                                                                         Anbieter:
› Virtualisierungsfunktionen zur besseren Verbindung von Abfragen über verschiedene Datensilos und
  Datenbankentechnologien hinweg
› Verteilte Batch Prozesse, z. B. zur Nutzung von Hadoop
› Real Time Datenerhebung und Reporting
› Ein Repository zur Unterstützung der Datenkonsolidierung

Status Quo und Ausblick:
› Bisher noch nicht stark verbreitet. Nutzung nimmt aber kontinuierlich zu.
› Aufgrund der stärkeren explorativen Nutzung von Daten, der generell wachsenden Bedeutung von daten-
  basierten Entscheidungen und der hohen Auslastungssituation in den IT-Bereichen ist das LGW für sehr viele
  Unternehmen ein Thema mit hoher Priorität.
© INFOMOTION GmbH   20. Mai 2019                                                                                                             30
MACHINE LEARNING

Definition:
Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und
kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es
„erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte Daten beurteilen. Der Unterschied zum Begriff
des Data Mining besteht darin, dass der Schwerpunkt auf der Prognose bzw. einer zielgerichteten Anwendung liegt und nicht dem Verstehen der
zugrundeliegenden Gesetzmäßigkeiten. Des Weiteren geht mit dem Einsatz von Machine Learning Verfahren oft die Verwendung von großen
Datenmengen mit vielen Merkmalen (hohe Datenkomplexität) einher.

Use Cases:                                                                                                               Anbieter:
› Predictive Maintenance: Sensordaten werden in Echtzeit ausgewertet, um Ausfälle vorherzusagen oder
  anstehende Wartungen zu empfehlen
› Recommender Systeme: Lernen aus dem Nutzerverhalten, welche Cross Selling Produkte angezeigt werden
  sollen, um den Absatz/Gewinn zu steigern
› Zeitreihenprognosen: Ergebnisse aus Wertpapierhandel werden analysiert, um Empfehlungen für Käufe bzw.
  Verkäufe zu erteilen

Status Quo und Ausblick:
› Methoden des Machine Learning haben in den letzten Jahren große Durchbrüche erzielt (insb. Deep Learning).
› Zukünftige Adaption in Anwendungssystemen und neue innovative Use Cases sind mit dem Einsatz von ML zu
  erwarten.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                     31
MASTER DATA MANAGEMENT

Definition:
Master Data Management als Steuerungs- und Verwaltungsfunktion der Stammdaten ermöglicht im Wesentlichen das Speichern von
Schlüsselinformationen über erfolgskritische Stammdaten, ein zentrales Update der Stammdaten, sowie die schnelle und automatisierte
Überführung von Datenänderungen in die Zielsysteme.

Status Quo und Ausblick:                                                                                             Anbieter:
› Viele - auch sehr große Unternehmen – haben aktuell kein Master Data Management für erfolgskritische
  Stammdaten etabliert. Häufig werden Probleme, die durch unzureichende systemische Lösungen auftreten,
  durch Arbeitsanweisungen und hohe manuelle Aufwände behoben bzw. zumindest eingedämmt.
› Um im Kontext der Digitalisierung von Prozessen und Kundeninteraktionen zu einem höheren
  Automatisierungsgrad und zu einer dafür notwendigen höheren Datenqualität zu kommen, werden immer
  mehr Unternehmen das Thema MDM noch einmal neu betrachten und für ausgewählte Datendomänen ein
  Master Data Management etablieren.

© INFOMOTION GmbH   20. Mai 2019                                                                                                      32
METADATA MANAGEMENT

Definition:
Metadaten sind zusätzliche Informationen zu anderen Daten, Inhalten, Business Prozessen oder Services. Ein effektives Management der
Metadaten bietet Klarheit in der Beziehung von Daten zueinander und Informationen über den Ursprung und Verarbeitungsverlauf der Daten.
Zudem ermöglicht das Management den Aufbau eines unternehmensweiten konsistenten Vokabulars. Es ist die Grundlage für eine effektive
Nutzung vorhandener und zukünftiger Daten, indem es deren Auffinden, Nutzen und Verwalten verbessert.

Use Cases:                                                                                                         Anbieter:
› Suche im Repository nach Business Term und Erhalt eindeutiger Definition und Verknüpfungen (Business Glossary)
› Rückverfolgung der Verarbeitung der Daten zur Fehlersuche oder besseren Interpretation (Data Lineage)
› Kenntnis der Datennutzung ermöglicht es, die Auswirkungen von Änderungen in Datenstrukturen auf andere
  Systeme nachzuvollziehen (Impact Analysis)
› Analysen können alle, mit dem System verknüpften Daten zu bestimmten Themenbereichen nutzen sowie die
  Informationen zu Beziehungen untereinander und zu anderen Daten verwenden (Basis für Data Science)

Status Quo und Ausblick:
› Zur Zeit werden meist techn. Metadaten gepflegt. Dies geschieht lokal, bei ETL Verarbeitungsschritten, im DW
  und in ERP Systemen. In traditionellen Anwendungsfällen ist der Bedarf nach Metadata Management geringer.
› Bei zunehmender Datenvielfalt, -umfang und Automatisierung sind ausführliche, einheitliche und fachliche
  Metadaten für eine effektive Auswertung essentiell. Insbesondere in einem Data Lake ist Metadata
  Management zwingend notwendig, um die Daten für explorative Analysen nutzen zu können.
› Mittelfristig werden ein Großteil aller Governance Richtlinien auf Basis von Metadaten und darauf aufbauenden
  Regelwerken automatisiert im Enterprise Data Management durchgesetzt.
© INFOMOTION GmbH   20. Mai 2019                                                                                                          33
MOBILE BI

Definition:
Mobile Business Intelligence beschreibt die Möglichkeit, von mobilen Geräten auf BI-bezogene Daten wie KPIs und Dashboards zuzugreifen. Das
Konzept der mobilen BI stammt aus den frühen 1990er Jahren, als die Mobiltelefonnutzung erstmals weit verbreitet wurde. Die frühen Befürworter
des mobilen BI haben das Potenzial von Mobiltelefonen, die Verteilung von geschäftskritischen Daten an mobile oder entfernte Mitarbeiter zu
vereinfachen sofort erkannt. Allerdings gewann das mobile BI erst größere Aufmerksamkeit mit dem Aufkommen des Smartphones.

Use Cases:                                                                                                            Anbieter:
› Mobile BI adressiert den Anwendungsfall von entfernten oder mobilen Mitarbeitern, die on-Demand Zugang zu
  geschäftskritischen Daten benötigen.
› Zum Beispiel ist ein Verkaufsleiter in der Lage, wichtige Kennzahlen zu überprüfen, auch wenn er auf einer Messe
  und somit 1000 km von seinem Büro entfernt ist.

Status Quo und Ausblick:
› Die Vorrausetzung ist ein BI-Tool, welches mobile und lokale Anwendungen unterstützt. Es sollten möglichst viel
  Inhalte wiederverwendet werden können, ohne das die Funktionalität oder Benutzerfreundlichkeit
  beeinträchtigt wird.
› Mit den richtigen Features kann das mobile UX schnell, agil und einfach sein. Features wie Responsive Design,
  Scrollen und "Swipe" werden sicherlich die Trends für die nächsten Jahre sein.
› Mobile BI wird bereits aktuell und auch zukünftig in ausgewählten Use Cases einsetzt.
© INFOMOTION GmbH   20. Mai 2019                                                                                                                 34
NATURAL LANGUAGE GENERATION

Definition:
Bei Natural Language Generation handelt es sich um eine automatisierte Erstellung von freien Texten auf Basis von strukturierten Daten. Hierbei
werden nicht nur einzelne Textelemente in einem festen Text ausgetauscht, sondern auch vollständig freie Texte auf Basis von Lösungen aus dem
Bereich der künstlichen Intelligenz erzeugt.

Use Cases:                                                                                                             Anbieter:
› Ersatz von grafisch / tabellarischen Beschreibungen durch Fließtexte
› Kommentierung von Analyseergebnissen zum besseren Verständnis bzw. zur Ergänzung von weiterführenden
  Informationen
› Automatisierte Erstellung von Antworttexten für Fragen im Helpdesk oder auf der Webseite

Status Quo und Ausblick:
› Aktuell ein Spezialthema mit wenigen Kunden und wenigen Anbietern.
› Durch die rasante Weiterentwicklung des Themas Machine Learning auf der einen Seite und die steigendende
  Wichtigkeit von Daten und den darauf aufbauenden Services auf der anderen Seite wird das Thema deutlich
  an Bedeutung zunehmen.
› NLG wird ein wesentlicher Baustein in der zukünftigen stark automatisierten Kommunikation neben der reinen
  Machine-to-Machine-Kommunikation.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                  35
NATURAL LANGUAGE QUESTION ANSWERING

Definition:
NLQA-Systeme wie Siri, Google und Watson beschäftigen sich mit der natursprachlichen Verarbeitung und der rechnerischen Linguistik, um
Benutzerfragen direkt zu beantworten. Durch die Reduzierung der Beantwortungszeit bieten diese virtuellen Assistenten, Suchmaschinen und
kognitiven Systeme einen verbesserten Geschäftswert.

Use Cases:                                                                                                          Anbieter:
› Der Hauptbereich von NLQA besteht darin, eine einfach zu bedienende Benutzeroberfläche anzubieten. Diese
  Oberfläche ermöglicht es auch Benutzern, welche keine Technologieexperten sind, den Inhalt auf einem
  beliebigen Gerät / Infrastruktur (z.B. PCs, Mobiltelefone, Tabletten, Cloud) durch den Einsatz natürlicher,
  menschlicher Sprache zu durchsuchen. Dies geschieht durch die Bereitstellung spezifischer und genauer
  Antworten auf die auferlegten Fragen, anstatt der Suche nach relevanten Inhalte oder Keyword-Matches.

Status Quo und Ausblick:
› Aktuell wird natürliche Sprache nur in sehr geringem Umfang in BI-Systemen eingesetzt.
› Im Zuge der Weiterentwicklung der Personal Assistant Systeme von Google, Apple und weiteren Herstellern wird
  das Thema NLQA auch in BI-Systemen relevanter werden.

© INFOMOTION GmbH   20. Mai 2019                                                                                                           36
NEAR REAL-TIME DATA WAREHOUSING

Definition:
Traditionell wird ein Data Warehouse periodisch – täglich bis wöchentlich – aktualisiert. Nach Abschluss einer Geschäftstransaktion kommt es
daher zu einer Verzögerung bis diese Transaktion im Data Warehouse verfügbar ist. Das Ziel von Near Real-Time Data Warehousing ist es die
Intervalle zwischen Aktualisierungen zu reduzieren bis eine Verfügbarkeit von neuen Daten in nahezu Echtzeit im Data Warehouse gewährleistet ist.
Als Resultat können Entscheidungen auf Grundlage der aktuellsten und damit genausten Daten gefällt werden. Durch den kleineren
Beladungszyklus können schneller Korrekturen vorgenommen werden, klassisch braucht es oft bis zur nächsten Beladung um den operativen
Zustand wiederherzustellen.

Use Cases:                                                                                                             Anbieter:
› Automatisierte Prozesse: ETF Trading folgt sich Minute zu Minute ändernde Kursentwicklung
› Last Minute Sale: Flugzeug Sitzplätze können bis zum Boarding noch neugebucht werden und Last Minute
  Angebote geschaltet werden
› e-Government: Elektronische Rezepte sind direkt nach Ausstellung abrufbar

Status Quo und Ausblick:
› Near Real-Time Data Warehousing bedarf oft einer Anpassung entweder der bestehenden DWH Architektur,
  des Datenmodells und/oder Einsatz von neuerer Datenbank-Technologie
› Real-Time nicht für alle Geschäftsmodelle erforderlich. Daher ist zu identifizieren welche Zeitauflösung für das
  Geschäftsmodell benötigt wird.
› Bei großen Datenmengen kann sich der ergänzende Einsatz eines Real-Time Data Lakes empfehlen
© INFOMOTION GmbH   20. Mai 2019                                                                                                                37
OPEN & EXTERNAL DATA

Definition:
Unternehmensinterne Datenbestände können mit frei verfügbaren und käuflich erwerbbaren externen Daten erweitert werden. Hierbei werden
unter dem Schlagwort Open Data Datenbestände zusammengefasst, die im Interesse der Allgemeinheit ohne Einschränkung zur freien Nutzung,
Weiterverbreitung und Weiterverwendung zugänglich gemacht werden.

Use Cases:                                                                                                       Anbieter:
› Wettbewerbsanalysen durch zusätzliche Marktdaten
› Wetterabhängige Vertriebsanlässe
› Kundensegmentierung im B2C-Umfeld

Status Quo und Ausblick:
› Derzeit niedrige Nutzung externer Daten, die über klassische Anbieter wie Mikro-, Makro-, Wetter- und
  Finanzdaten hinausgehen.
› Es existieren zurzeit über 5.000 kleinere Data Broker und über 10 Millionen Open Data Sets.
› Bis 2019: 75% aller analytischen Lösungen verwenden mind. 10 externe Datenquellen (Gartner).
› INFOMOTION geht davon aus, dass sich in den nächsten Jahren verstärkt Data Broker am Markt etablieren und
  nach einer Konsolidierungswelle bis 2020 sehr große starke Player mit sehr großem und standardisierten
  Datenangebot entstehen.

© INFOMOTION GmbH   20. Mai 2019                                                                                                          38
OPERATIVE BI & ANALYTICS

Definition:
Operative Business Intelligence (OpBI) ist die IT-basierte Integration und Analyse von Prozessdaten. Ein Ziel ist die Schaffung von Transparenz
hinsichtlich Struktur und Leistungsfähigkeit von Geschäftsprozessen. OpBI befähigt Manager aus dem operativen Entscheidungsumfeld, um
situationsbedingt in Prozesse einzugreifen und diese permanent zu verbessern. Es geht darum, wertvolle Informationen zu generieren,
Zusammenhänge aufzudecken, Prozesse zu optimieren und frühzeitig Trends abzuleiten.

Use Cases:                                                                                                                  Anbieter:
› Optimierte Wertschöpfungsketten - von der Entwicklung über die Fertigung, Logistik und gezielte Vermarktung
  bis zu damit verbundenen Dienstleistungen
› Kurzer, zukunftsgerichteter Analyse-Horizont mit einem möglichst individuellen Blick auf einzelne Produkte,
  Chargen, bestimmte Zielgruppen oder den Endkunden
› Einsichten aus kombinierten Datenbeständen (strukturierte und unstrukturiert Daten) - idealerweise direkt zur
  Laufzeit der Abfrage
› Frühzeitiges Aufspüren von Trends mittels Telemetrie, Sensor Intelligence, Data Mining und Predictive Analytics

Status Quo und Ausblick:
› In aktuellen Studien betrachten weit über die Hälfte der befragten Unternehmen operative Abläufe als
  wichtigstes Anwendungsfeld für analytische IT-Werkzeuge und BI-Techniken.
› Anbieter positionieren das Thema „OpBI & Analytics“ als Kern des „Intelligent Enterprise“.
› INFOMOTION kombiniert Data Intelligence mit Business Analytics in dispositiven und operativen Umgebungen.

© INFOMOTION GmbH   20. Mai 2019                                                                                                                  39
Sie können auch lesen