Trend- und Themenradar - INFOMOTION GmbH
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
INFOMOTION TREND- UND THEMENRADAR FÜR BUSINESS INTELLIGENCE UND BIG DATA IN DER DACH-REGION Der INFOMOTION Trendradar verschafft Ihnen einen umfangreichen Überblick über aktuelle und zukünftige Themen und Trends der Bereiche Business Intelligence und Big Data im DACH-Raum. Er hilft Ihnen insbesondere dabei, Entwicklungen unterschiedlicher Trends gezielt einschätzen zu können. Der Trendradar beruht auf der umfangreichen Projekterfahrung unserer Beratungsexperten und dem fundierten Know-how des INFOMOTION Innovations- und Wissensmanagements. Durch kontinuierliche Analysen fließen Veränderungen innerhalb des relevanten Marktes der DACH-Region in den Trendradar mit ein. Zusätzlich setzen wir uns ausführlich mit den Roadmaps der Software-Hersteller auseinander. MARKUS ENDERLEIN Nutzen Sie den INFOMOTION Trendradar, um sich einen Überblick über die vorherrschenden Themen und Business Unit Manager zukünftigen Trends im Bereich Business Intelligence und Big Data zu verschaffen. Um Sie diesbezüglich auf dem Strategy & Digital Solutions neuesten Wissens- und Informationsstand zu halten, werden wir den Trendradar und dessen Inhalte kontinuierlich aktualisieren und weiterentwickeln. Sollten Sie detaillierte Fragestellungen zu einzelnen Themenfeldern haben bzw. wissen wollen, wie Trends Ihren Geschäftsbereich und Ihr Umfeld beeinflussen und wie Sie innovative Technologien und Methoden nutzenbringend einsetzen können, kontaktieren sie uns. © INFOMOTION GmbH 20. Mai 2019 2
Unser Erfolgsgeheimnis? We love data! BUSINESS INTELLIGENCE, BIG 9 STANDORTE 15 JAHRE WACHSTUM 370+ MITARBEITER DATA & DIGITAL SOLUTIONS DACH REGION 350+ KUNDEN INFOMOTION DIGITAL FULL SERVICE-ANBIETER STARKE KOOPERATIONEN ALLER BRANCHEN INNOVATION LAB © INFOMOTION GmbH 20. Mai 2019 3
INNOVATIONS- UND TRENDBEWERTUNG BEI INFOMOTION PRODUKTMANAGEMENT WISSENSMANAGEMENT Analysten 5 Kompetenzfelder 229 Roadmap & Strategie Business Wissenschaftliche 7 113 Produkthersteller Development Arbeiten Projekterfahrung >4T BI-Services Forschungs- 2 Kunden projekte INFOMOTION Trend- und Themenradar Interne 15 Vertrieb Expertengruppen Innovations- Expertennetzwerke management © INFOMOTION GmbH 20. Mai 2019 4
INFOMOTION TREND- UND THEMENRADAR FÜR DEN BI- UND BIG DATA-MARKT IN DER DACH-REGION AKTUELL MITTELFRISTIG LANGFRISTIG ZUKUNFT Self-Service BI BI Competency Process Data Science / Self-Service Natural Language Center / ACE Mining Data Labs Data Preparation Generation Social Data Warehouse Natural Language BI & Data Visual Analytics & Machine Intelligence Automation Question Answering Governance Data Discovery Learning Search-Based Data Storytelling Data Quality Data Discovery Mobile BI Collaborative BI Predictive Management Analytics Cognitive BI Logical Data Metadata Consolidation Planning IoT Analytics Warehouse Management Blockchain Analytics as Data Catalog Data Lake a Service Near- / Real-Time Information Data Warehousing Open & Design Data Cloud BI external Data Virtualization Analytical Geo & Location Text Analytics Data Mining Operative Apps Intelligence Prescriptive Agile BI Version Q2/2019 BI & Analytics Analytics Master Data Analytical Big Data / Event Stream Management Databases Hadoop Ecosys. Processing © INFOMOTION GmbH 20. Mai 2019 5
AGILE BUSINESS INTELLIGENCE Definition: Agile BI ist ein kontinuierlicher, strategischer Ansatz, um innerhalb einer Organisation vorhersehbare und unvorhersehbare Anforderungen flexibel und lösungsorientiert binnen möglichst kurzer Zeit und mit hohem Qualitätsanspruch erfüllen zu können. Agilität beschreibt hierbei die Fähigkeit einer Organisation, flexibel, aktiv, anpassungsfähig und mit Initiative in Zeiten des kontinuierlichen Wandels zu handeln. Use Cases: Anbieter: › Kurzfristige Umsetzung neuer Anforderungen › Nutzung von Sandboxing zur Unterstützung von temporären Bedarfen & Erprobung von Ansätzen › Unterstützung von Self Service BI Status Quo und Ausblick: › Viele Unternehmen sind aktuell sehr gut in der Umsetzung stabiler und qualitätsgesicherter Enterprise Data Warehouse Lösungen. Insbesondere im Bereich Agile BI fehlt es vielen aber noch an Methodik, Mindset und unterstützender Architekturen und Tools. › Agile BI wird im Zuge der kontinuierlich weiter steigenden Marktgeschwindigkeit eine wesentliche Fähigkeit des BICCs. In absehbarer Zeit wird Agile BI für alle BICCs im Kontext einer bimodalen IT umgesetzt werden. › Sandboxes, agiles PM und Self Service BI bzw. Data Preparation werden hier wesentliche Erfolgsfaktoren sein. © INFOMOTION GmbH 20. Mai 2019 6
ANALYTICAL APPS Definition: Analytical Apps sind Applikationen, die für einen spezifischen analytischen Use Case entwickelt werden. Hierbei stehen insbesondere die Themen Verbesserung der User Experience und reduzierte Komplexität im Vordergrund. Anwender von Analytical Apps sollten sich auf den gewählten Use Case konzentrieren und die bereitgestellten Informationen mit höchster Effizienz nutzen können. Die Skill-Anforderungen an die Anwender werden damit deutlich reduziert. Use Cases: Anbieter: › Maßgeschneiderte Applikationen für ausgewählte Zielgruppen und ausgewählte Use Cases › Business Intelligence ohne klassisches Business Intelligence Frontend › „BI for the Masses“ durch Applikationen mit sehr hoher Usability Status Quo und Ausblick: › Aktuell existieren noch sehr wenige Analytical Apps. Häufig werden Kennzahlen und Auswertungen in andere – teilweise operative – Apps integriert. › Der Umfang an Analytical Apps wird unseres Erachtens auf der einen Seite durch Entwicklungen der Standard- Software-Anbieter im Bereich ERP, CRM und SCM langsam ansteigen. › Auf der anderen Seite hat z.B. SAP mit FIORI ein Framework bereitgestellt mit dem sich im Unternehmenskontext eigene Apps mit vertretbarem Aufwand entwickeln lässt. © INFOMOTION GmbH 20. Mai 2019 7
ANALYTICAL DATABASES Definition: Analytical Databases sind spezifische Datenbanksysteme für analytische Lösungen. Diese unterstützen im Gegensatz zu klassischen Datenbanken die typischen Lese- und Schreibmuster von analytischen Anwendungen besser und führen damit zu einer deutlichen Performance-Optimierung. Hierzu gehören insbesondere In-Memory, No-SQL und spaltenbasierte Datenbanken. Use Cases: Anbieter: › Beschleunigung von Abfragen ohne notwendige Anpassung der Beladungsstrecken oder der Datenmodelle › Unterstützung von – interaktiver – explorativer Datennutzung durch geringe Antwortzeiten › Basis für Operative BI – hierbei erfolgt keine Trennung mehr zwischen operativem und analytischen System – aktuell auf Basis von SAP HANA realisierbar › Reduktion der Systemkomplexität durch Wegfall von Zwischenaggregaten, die bisher nur zur Performance- steigerung in das System integriert wurden Status Quo und Ausblick: › Die Nutzung spezifischer analytischer Datenbanken setzt sich immer stärker durch. › Neue BI Lösungen werden aktuell zum größten Teil auf Basis moderner Datenbanksysteme mit spezifischer Unterstützung für BI realisiert. © INFOMOTION GmbH 20. Mai 2019 8
ANALYTICS AS A SERVICE Definition: Analytics as a Service (AaaS) bezeichnet die Auslagerung von Business Intelligence und (Advanced) Analytics Prozessen zu einem externen Dienstleister. Analytics as a Service hat zum Ziel, dass interne Analyseprozesse so zu einem externen Dienstleister ausgelagert werden, dass dieser Erkenntnisse und Handlungsempfehlungen als Ergebnis zurückliefern kann. Hierbei umfasst AaaS unter anderem Exploration as a Service, Data as a Service, Data Orchestration as a Service und Insights as a Service. Use Cases: Anbieter: › Reduktion der Belastung der Fachbereiche im Bereich der Analyse von Daten und insbesondere von auftretenden Sondersituationen (z.B. Optimierung Kampagnenmanagement, …) › Optimierung der Analyseergebnisse durch Ergänzung der unternehmensinternen Daten um zusätzliches Marktwissen (-daten) und Einsatz von Erfahrungswissen › Erkennung von bisher unbekannten Zusammenhängen innerhalb der Unternehmensdaten › Steigerung der Agilität und Flexibilität Status Quo und Ausblick: › Aktuell wird dies von wenigen Dienstleistern angeboten und auch von wenigen Unternehmen nachgefragt. › Durch den größer werdenden Engpass bei hoch qualifiziertem Personal steigt der Bedarf nach externer Unterstützung – insbesondere für die unregelmäßigere Durchführung von Spezialanalysen. › Gleichzeitig wird die Fähigkeit zur optimalen Analyse von Daten und die daraus folgende Ableitung von Handlungsempfehlungen ein wesentliches Differenzierungsmerkmal von Unternehmen. Hierdurch wird der Einsatz innerhalb eines Unternehmens in den einzelnen Bereichen unterschiedlich stark ausfallen. © INFOMOTION GmbH 20. Mai 2019 9
BI & DATA GOVERNANCE Definition: BI- & Data-Governance umfasst die Organisation und Prozesse im Kontext Business Intelligence und dem Enterprise Data Management. Governance stellt hierbei sicher, dass innerhalb eines Unternehmens die Informationsbedürfnisse zur Erfüllung der Geschäftsziele abgedeckt, die Ressourcen verantwortungsvoll eingesetzt und Risiken angemessen überwacht werden. In den Governance-Strukturen sind sehr häufig langjähriges Erfahrungswissen in Form von Best Practices abgebildet. Use Cases: Anbieter: › Ordnungsrahmen für das strategische Informationsmanagement › Festlegung, Steuerung und Überwachung von Vorschriften, internen Regeln sowie gesetzlichen Vorgaben und Compliance-Anforderungen im Bezug auf Daten und deren Verwaltung › Festlegen von Richtlinien und Vorgängen, um ein proaktives und effektives Datenmanagement sicher zu stellen › Transparenz und Verwaltung eines Data Lake Status Quo und Ausblick: › BI-Governance ist in vielen Unternehmen noch nicht im notwendigen Maße realisiert. Dadurch kommt es zu Schwierigkeiten in der Kommunikation und in der effizienten Umsetzung der geplanten BI- & Datenziele › Durch die steigenden Relevanz von BI und allgemein Daten und der gleichzeitig steigenden Komplexität der IT- Landschaft rückt das Thema Governance stärker in den Fokus der Unternehmen. › Zur Umsetzung werden bisher in der lokalen Betrachtung einer Anwendung nicht berücksichtige Themen wie z.B. Master Data Management und Metadata Management für das Unternehmen realisiert. © INFOMOTION GmbH 20. Mai 2019 10
BI COMPETENCY CENTER / ANALYTICS CENTER OF EXCELLENCE Definition: Das BI Competency Center (alternativ Analytics Center of Excellence, kurz ACE) ist ein funktionsübergreifendes Team innerhalb einer Organisation. Es übernimmt Aufgaben, Rollen, Verantwortlichkeiten und Vorgänge, um die wirksame Anwendung der Business Intelligence innerhalb einer Organisation zu unterstützen und zu fördern. Use Cases: › Im Bereich BI-Management: Ausgestaltung des BI-Programms, der Projekte, Maßnahmen und Initiativen sowie Standardisierung von BI-Aktivitäten und Vereinheitlichung der Vorgehensweisen, Methoden und Verfahren › Im Bereich Architektur: fachlich ausgerichtet Modellierung der analytischen Unternehmensdaten und -flüsse sowie Festlegung eines technologischen Gesamtkonzepts › Im Bereich BI-Unterstützung: Personalentwicklung, um BI effizient im Unternehmen einsetzen zu können und Unterstützung von BI-Anwendern und Projektteams in technischen und fachlichen Problemstellungen › Im Bereich BI-Umsetzung: Entwicklung und Durchführung von BI-Projekten unter Berücksichtigung der BI- Strategie sowie des Betriebs der BI-Lösungen Status Quo und Ausblick: › Einige Unternehmen haben für Business Intelligence noch keine spezifische Organisationsform etabliert sondern betrachten BI-Lösungen als eine Variante einer IT-Applikation. Hierdurch kann in diesen Unternehmen nicht der geplante Nutzen von Business Intelligence realisiert werden. › Aufgrund der steigenden und erkannten Relevanz von Business Intelligence in den Unternehmen werden BICCs etabliert bzw. schon in einem zweiten oder dritten Anlauf optimiert. © INFOMOTION GmbH 20. Mai 2019 11
BIG DATA / HADOOP ECOSYSTEM Definition: In einer engeren Betrachtung setzen wir Big Data mit dem Hadoop Ecosystem gleich. Eine weitere Betrachtung umfasst zusätzlich Use Cases bzw. Einsatzszenarien aus dem Bereich der digitalen Transformation. Big Data wird häufig über die Begriffe Volume (sehr große Datenmengen), Variety (Vielfalt von Datentypen und -quellen) und Velocity (Geschwindigkeit in der Verarbeitung der Daten) beschrieben. Use Cases: Anbieter: › Anbindung neuer Datenquellen (IoT, Audio, Video, Text, …) › Performante Verarbeitung sehr großer Datenmengen › Offloading und Active Archive für operative oder analytische Anwendungen › Plattform für Data Science und Explorative Analytics › Plattform für Lösungen im Bereich verteilte Algorithmenausführung Status Quo und Ausblick: › Aktuell beschäftigen sich sehr viele Unternehmen mit dem Thema Big Data und dabei insbesondere mit der Validierung eines Einsatzes von Hadoop. Operative Systeme haben hingegen bisher nur wenige Unternehmen im Einsatz. › Lösungen wie Hadoop oder andere Big Data Lösungen für die Verarbeitung von Massendaten mit sehr hoher Performance werden mittelfristig aber in jedes BI-System als eine notwendigen Komponente integriert. © INFOMOTION GmbH 20. Mai 2019 12
BLOCKCHAIN Definition: Die Blockchain ist eine manipulationssichere Dokumentation von Transaktionen und Besitzverhältnissen, die Daten mittels Distributed-Ledger- Technologie in einem verteilten Peer-to-Peer-Netzwerk speichert. Blockchains können neben digitalen Assets (z.B. Geld, Lizenzen) auch Wertstellungen aus Verträgen und Identitäten mit hoher Geschwindigkeit ohne Intermediäre transferieren. Durch Smart Contracts kann die Logik eines Vertrags in Form von Code bzw. Algorithmen prozessiert werden. Blockchain-Technologie kann als Blockchain as a Service bei den meisten Cloud-Anbietern bezogen werden Use Cases: Anbieter: › Speichern und Verarbeiten von Identitäten › Verbriefung von Eigentum z.B. durch ein Grundbuch › Transfer von digitalen Assets › Ausführen von Vertragslogiken durch Smart-Contracts Status Quo und Ausblick: › Alle großen Technologie-Anbieter haben in die Blockchain-Technologie investiert, kooperieren mit einem Startup oder sind Teil eines Konsortiums. Mit über 100 Firmen (u.a. Airbus, Deutsche Bank, SAP) bildet Hyperledger das wichtigste Konsortium › Die Technologie findet in ersten Machbarkeitsstudien und Projekten Anwendung. Bisher sind allerdings nur wenig produktive Anwendungsfälle erfolgreich realisiert. › Blockchain bietet als weitere Basistechnologie verschiedene Einsatzmöglichkeiten. Ob die Technologie in den nächsten Jahren eine große Verbreitung findet hängt von der Identifikation eines wesentlichen Uses Cases ab. © INFOMOTION GmbH 20. Mai 2019 13
CLOUD BI Definition: Möglich sind verschiedene Varianten und Umsetzungsgrade von Cloud BI, die sich hinsichtlich der Verteilung der Funktionalitäten, Anteil an Cloud Nutzung und Betreiber der Cloud unterscheiden. Im Vergleich zu traditioneller BI ermöglichen diese Lösungen mehr Agilität, Schnelligkeit und Funktionsumfang sowie eine schnellere Implementierung und kürzere Updatezyklen. Zusätzlich werden neue Features und Funktionen sofort bereitgestellt und verbesserte Kollaborationsmöglichkeiten sowie das Outsourcing von BI-Fachkenntnissen möglich. Eine flexible Anpassung der technischen Ressourcen und Nutzerzahlen machen dies möglich. Use Cases: Anbieter: › Komplette BI in die Cloud auslagern › Hybride Modelle: On-Premise Datenquelle mit BI in der Cloud vs. On-Premise BI mit Cloud-App als Interface › Die Cloud BI als Sandbox für Entwicklungs- und Testumgebungen › Nutzung von spezialisierten Analytics Technologien aus der Cloud Status Quo und Ausblick: › Jeder etablierte BI Hersteller bietet eine Cloud BI Lösung an. Diese sind hinsichtlich ihrer Funktionalität mit On- Premise Lösungen vergleichbar. Bedenken gegen Cloud BI betreffen die Sicherheit und Compliance, fehlendes Vertrauen und der Wunsch, Unternehmensdaten intern zu halten. › Technische Erleichterungen und Preissetzung führen aber auch in der DACH-Region zu einem langsamen Anstieg in der Nutzung. › Neue Data & Analytics Lösungen werden mittelfristig alle Cloud-Ready entwickelt. © INFOMOTION GmbH 20. Mai 2019 14
COGNITIVE BI Definition: Mittels Cognitive Computing wird Business Intelligence „menschlicher“. Unter anderem kombiniert es Technologien wie das Machine Learning, Data Mining und Natural Language Processing. Ziel ist es, den Umgang mit Daten natürlicher zu machen: Sprache, Bilder und Videos werden maschinell (auch in Echtzeit) verarbeitet und die Interaktion mit den Anwendern wird der zwischenmenschlichen Kommunikation immer ähnlicher. Use Cases: Anbieter: › „Welche Menge Rohmetall soll ich bestellen?“ führt bspw. zu Daten über den Bestand, die Aufträge und die aktuellen Preise mit Prognosen und Analysen › Im Call Center führt die Echtzeitanalyse der Gespräche zu relevanten Informationen und Themenvorschlägen › Connected Car – Daten führen zu intelligenten Prognosen hinsichtlich der Verkehrsentwicklung und mehr Sicherheit › Automatisierte Kundenberatung z.B. in Chats oder e-Mail › Content Automation im Digital Marketing Status Quo und Ausblick: › Die Möglichkeiten der Cognitive BI sind abhängig von Entwicklungen der einzelnen Technologien. › IBM Watson stellt das umfangreichste Angebot dar. Für einzelne Technologien oder spezielle Anwendungsfälle gibt es viele andere Anbieter. › Top CEOs erwarten disruptive Veränderungen ihrer Branche durch Cognitive Computing. © INFOMOTION GmbH 20. Mai 2019 15
COLLABORATIVE BI Definition: Collaborative BI ist die Zusammenführung von Business Intelligence mit Collaboration Funktionalitäten, um eine verbesserte datengetriebene Entscheidungsfindung in Gruppen zu unterstützen. Wesentlich ist hierbei eine Verbesserung der Kommunikation zwischen Analysten und Entscheidern. Darüber hinaus sollen Collabarotive BI Lösungen die langfristige Speicherung von Erkenntnissen aus einzelnen Analysen stärker unterstützen und einen gemeinsamen Prozess zur Entscheidungsfindung ermöglichen. Use Cases: Anbieter: › Kommentierung von Analyseergebnissen Jeder Anbieter von BI- › Unterstützung von Abstimmungsprozessen Produkten hat in den letzten Jahren › Speicherung von Erkenntnissen zu vergangenen Analyseergebnissen Collaboration Funktionalitäten in den Produkten ergänzt. Status Quo und Ausblick: › Im Vergleich zu traditionellen BI-Tools, die insbesondere einzelne Anwender adressieren unterstreicht der Ansatz Collaborative BI den Problemlösungsprozess. Tools erlauben Gruppen, Daten zu analysieren und Informationen sowie Ideen auszutauschen. Aktuell reduziert sich dies allerdings häufig auf Kommentierung und Freigabe von Analyseergebnissen. › Gemeinsame Entscheidungsprozesse werden auch zukünftig nur in geringem Maße durch die Unterstützung von Collaborative BI Funktionalitäten in Tools aber auch in den internen Prozessabläufen unterstützt. © INFOMOTION GmbH 20. Mai 2019 16
CONSOLIDATION Definition: Konzerne sind gesetzlich dazu verpflichtet, einen Abschluss nach gesetzlichen Vorgaben zu erstellen. Doch auch das Management sowie Investoren und Kreditgeber sind daran interessiert, die finanzielle Situation eines Unternehmens zu bewerten. Nur auf dieser Grundlage können die richtigen Entscheidungen für die Zukunft getroffen werden. Use Cases: Anbieter: › Legale Berichterstattung, Wirtschaftsprüfer-konform, transparent und automatisiert › Management Konsolidierung als Steuerungsinstrument für den Konzern › Segmentberichterstattung (Matrix-Konsolidierung) Status Quo und Ausblick: › Die Unternehmens- und insbesondere Konzernsteuerung bedarf einer immer tieferen Integration unterschiedlicher Prozesse. Ob IST, Forecast oder Plan-Daten, die Konsolidierung sorgt für vergleichbare Daten. › In Rahmen einer HANA Strategie beschäftigen sich Unternehmen zunehmend mit direkter Datenanbindung und Integration der Operativen Prozesses im ERP und Management Informationen. S/4 HANA for Group Reporting setzt genau an dem Punkt auf und bietet weitreichende Funktionalitäten, insbesondere für S/4 HANA Kunden. › Cloud ist sowohl aus IT-Architektonischer Sicht als auch für Anwender ein zentrales Thema, SAP Analytics Cloud ermöglicht den direkten Datenzugriff auf ihre SAP BPC Konsolidierung, S/4 HANA for Group Reporting sowie diverse andere Datenquellen. Darüber hinaus ist die Konsolidierungslösung S/4 HANA for Group Reporting auch in einer Cloud Version verfügbar. © INFOMOTION GmbH 20. Mai 2019 17
DATA CATALOG Definition: Der Data Catalog liefert als Plattform für die Metadatenanalyse den Einstieg für sämtliche datenbezogene Recherchetätigkeiten im Unternehmen. Er fungiert jedoch nicht nur als Suchinstrument sondern bietet umfangreiche Kollaborationsprozesse um mit anderen Stakeholdern der Daten zu interagieren. Durch ein Business Glossar können Datenobjekte beschrieben und bewertet sowie Rückfragen und Kommentierungsprozesse abgebildet werden. Mit Hilfe von Data Profiling und der Analyse der Beziehung zu anderen Objekten wird eine Bewertung der Datenbeschaffenheit und Verwendung möglich. Mit Data Lineage und Impact Analysis sind zudem feingranulare Analysen von Datenbewirtschaftungsprozessen möglich - auch über System und Technologiegrenzen hinweg. Use Cases: Anbieter: › Sammlung und Management sämtlicher Metadaten im Unternehmen, sowohl aus operativen als auch aus dispositiven Systemen › Durch Machine Learning gestützte Beschreibung der Datenobjekte und Domänen im Business Glossar sowie Erkennung von Zusammenhängung, Verwendung und Profil der Daten › Nachvollziehen von Datenflüssen über System- und Technologiegrenzen hinweg › Kollaboration mit unterschiedlichsten Nutzerklassen aus Fachbereich und IT Status Quo und Ausblick: › Durch die Unterstützung von Machine Learning werden Aufwände zur Pflege des Business Glossars reduziert, hier sind auch für die Zukunft hohe Potenziale zu sehen › Neben reinen relationalen und strukturierten Daten können auch polystrukturierte Daten sowie Dokumente angebunden werden © INFOMOTION GmbH 20. Mai 2019 18
DATA LAKE Definition: Ein Data Lake resultiert in einer für Analysezwecke optimierten zentralen Datenplattform, die Daten aus mehreren, in der Regel heterogenen Quellen bereitstellt. Die Zusammenführung und Verdichtung der Daten ist dabei keine notwendige Bedingung. Konzeptions-Integrationsaufwände werden dadurch drastisch reduziert. Big Data-Technologien ermöglichen sehr günstige Datenhaltung und -verarbeitung. Der Supervised-Ansatz folgt dem Data Governance First Gedanken unter der Prämisse größtmöglicher Flexibilität. Use Cases: Anbieter: › Sehr schnelle und agile Bereitstellung neuer Datenquellen und -strukturen im Rohformat für die Analyse › Data Lab für Analytics-Abteilung › Landing-Zone für ETL/ELT (Extraktionspuffer) › DWH Off-Loading & aktives Archiv für Quellsysteme › Voraggregation und -verarbeitung von Massendaten Status Quo und Ausblick: › Die Erschaffung eines unternehmensweiten Supervised Data Lake ist ein hochgradig kundenindividuelles und komplexes Projekt. › Durch die rasante Weiterentwicklung des Themas Data Governance auf der einen Seite und der steigenden Relevanz von Daten bzw. den darauf aufbauenden Services auf der anderen Seite wird das Thema deutlich an Bedeutung zunehmen. › Data Lakes werden zu einem wesentlicher Baustein in der zukünftigen IT-Architekturlandschaft. © INFOMOTION GmbH 20. Mai 2019 19
DATA MINING Definition: Unter Data Mining versteht man die systematische Anwendung statistischer Methoden auf verfügbare Datenbestände. Die wesentliche Zielstellung von Data Mining ist das Extrahieren von neuem Wissen aus vorhandenen Daten. Im Gegensatz zur klassischen multivariaten Statistik steht die Anwendung und empirische Verifikation des extrahierten Wissens im Vordergrund. Data Mining kann zur Regelinduktion als auch Prognose eingesetzt werden, wobei mit dem Begriff oft das Entdecken von Gesetzmäßigkeiten assoziiert wird. Use Cases: Anbieter: › Warenkorbanalysen: Welche Produkte werden mit welcher Wahrscheinlichkeit gemeinsam gekauft? (Assoziationsanalyse) › Credit Scoring: Welche Merkmale (z.B. Kundenattribute) haben welchen Einfluss auf die Zahlungsbereitschaft? (Regression: Factor Importance) › Betrugserkennung: Welche Einzel-Entscheidungen in Bezug auf bestimmte Attribute führen zu einem Betrugsfall? (Entscheidungsbaum, -pfad) Status Quo und Ausblick: › Die Themen Data Mining, Machine Learning und Statistik weisen starke Überschneidungen auf. Hierbei variiert allerdings häufig die damit verbundene Zielstellung und Ausgangsituation › Aktuell findet ein Comeback des Data Mining aufgrund stetig steigernder Datenmengen statt. › Die Einsatzgebiete von Data Mining entwickeln sich kontinuierlich weiter. Zur Unterstützung einer stärkeren Verbreitung werden die Data Mining Tools werden weiter vereinfacht werden (Enabler für Citizen Data Science). © INFOMOTION GmbH 20. Mai 2019 20
DATA QUALITY MANAGEMENT Definition: Der Begriff Datenqualität umfasst „die Gesamtheit aller Eigenschaften von Daten hinsichtlich der Fähigkeit, die Anforderungen des Anwenders zu erfüllen (‚meeting user requirements‘ / ‚fitness for use‘)“. Daten und Kennzahlen werden für Unternehmen und deren Produkte zunehmend wichtiger. Dabei müssen immer mehr Informationen verarbeitet werden und die Ansprüche an die Qualität der Informationen steigen kontinuierlich. Eine hohe Datenqualität wird in immer mehr Unternehmensbereichen zu einem zentralen Erfolgsfaktor, manchmal sogar zu einer zwingenden Voraussetzung. Use Cases: Anbieter: › Data Profiling und Data Cleansing › (permanentem) Data Quality Management › Metadaten-Management und Masterdaten-Management Status Quo und Ausblick: › Das Thema Datenqualität ist heute längst über die IT-Abteilung hinausgewachsen und in den meisten Führungsetagen angekommen. › Die Verbesserung der Datenqualität wirkt sich auf fast alle Unternehmensbereiche aus. Der größte Benefit ist i.A. bei der Prozessoptimierung und dem Reporting zu erwarten, gefolgt von Verbesserungen bei der Kundenbindung/Kundenansprache, der Vermeidung von Reklamationen, sowie der Einhaltung gesetzlicher Bestimmungen (v.a. Meldewesen) und der Einhaltung von Lieferverpflichtungen. © INFOMOTION GmbH 20. Mai 2019 21
DATA SCIENCE / DATA LABS Definition: Ein Data Lab ist meist eine eigene Unternehmenseinheit, welche das Ziel verfolgt, agile Datenanalysen zu ermöglichen. Zum Aufbau einer solchen Einheit wird neben den nötigen technologischen Investitionen vor allem ein interdisziplinär ausgebildetes Team an Spezialisten benötigt. Um neue Erkenntnisse durch erweiterte Analysen zu gewinnen oder die Optimierung von Entscheidungsprozessen durch prototypisch umgesetzte Use Cases zu diskutieren, eignet sich ein agiles und forschungsorientiertes Vorgehen. Ansätze und Methoden wie das Design Thinking und eine kreative Atmosphäre unterstützen Data Scientist und Fachexperten bei der gemeinsamen Erarbeitung von innovativen Lösungen und Use Cases. Use Cases: › Eine Finanzabteilung wendet sich an das Data Lab für ein besseres Kreditscoring. Das Data Lab entwickelt gemeinsam mit Fachanwendern, ein neues Modell, dass auch externe und unstrukturierte Unternehmensdaten in die Analyse miteinbezieht. › Ein Automobilhersteller sucht nach Nutzen in den Daten von Smart Cars, ein Transportunternehmen nach den Ursachen und Maßnahmen zur Vermeidung von Verspätungen und bspw. ein Finanzunternehmen nach Möglichkeiten Open Data zu nutzen. › Ein Data Lab bietet eine zentrale Anlaufstelle zur Diskussion von Ideen und fortgeschrittenen analytischen Problemstellungen aus den Fachbereichen. Status Quo und Ausblick: › Etablierung geschieht als unabhängiges Data Labs wie etwa bei VW, E.ON, Ergo und Bosch oder als Gruppe innerhalb einer anderer Abteilung wie bspw. bei Siemens, Daimler, BASF und MAN. › Zukünftige Expansion von Data Labs und Data Science Competence Center wird erwartet. © INFOMOTION GmbH 20. Mai 2019 22
DATA STORYTELLING Definition: Beim Data Storytelling geht es darum, dem Empfänger die Bedeutung hinter den Daten zu verdeutlichen und ihn zum Handeln zu motivieren. Mit Hilfe von Geschichten kann den Daten eine Stimme gegeben werden, die Emotionen beim Zuhörer wecken. Durch das Erzählen einer Datengeschichte werden neurologische Mechanismen angesprochen die dafür sorgen, dass die Geschichteninhalte schneller übertragen werden und verständlicher sind als Zahlen und Fakten. Dadurch können Informationen zeitsparend und eindeutig zu dem Empfänger transportiert werden, wodurch Stakeholder bei der Entscheidungsfindung unterstützt werden. Data Storytelling kann in allen Bereich eines Unternehmens eingesetzt werden, indem Informationen effizient und nachhaltig transportiert werden sollen. Use Cases: › Unternehmensbereiche und -aktivitäten, in denen Informationen durch Daten effizient und nachhaltig weitergegeben werden sollen wie bspw: › Hauptversammlungen sowie Unternehmens-, Vorstands-, Sales-, Produktpräsentationen › Startup und Business Pitches Status Quo und Ausblick: › Im Zuge einer zunehmenden Datennutzung und steigender Datenkenntnisse in Organisationen (Stichwort „Data Literacy“) steigen auch die Kenntnisse und Verwendung von Data Storytellings › Der Einsatz von Data Storytelling im Bereich der Datenvisualisierung, des Dashboardings und bei bedeutenden Präsentationen ist bereits gängige Praxis in Großunternehmen › Softwarehersteller greifen Elemente des Data Storytellings zunehmend über Funktionen in ihren Produkte auf wodurch die Methodik indirekt bei einer großen Anzahl an Endanwender Einsatz findet © INFOMOTION GmbH 20. Mai 2019 23
DATA VIRTUALIZATION Definition: Datenvirtualisierung integriert Daten aus verteilten Quellen, von verteilten Orten und Daten mit unterschiedlichen Formaten, ohne dass diese repliziert werden müssen. Auf diese Weise wird eine einzelne, "virtuelle" Datenebene (Single Point of Truth) geschaffen, die mit einheitlichen Datenservices zahlreiche Anwendungen und Anwender unterstützt. Datenvirtualisierung ist somit eine Abstraktions- und Datenservice-Ebene. Use Cases: Anbieter: › Vereinfachung der Komplexität & Zusammenführung unterschiedlicher Quellen in einem zentralen Datenmodell › Reduzierung des Bedarf an Data Marts und Data Warehouses › Neue Datenquellen können innerhalb von Minuten für Analysen bereitgestellt werden › Einfache Integration von Echtzeitdaten im Reporting › Verringerung von Datenredundanz und ETL Prozessen Status Quo und Ausblick: › Datenvirtualisierung baut die Brücke zur logischen Verknüpfung alter und bewährter Technologien mit neuen technologischen Möglichkeiten, unabhängig vom Ort der Daten. › Datenvirtualisierung ist die konsequente Weiterentwicklung bestehender Ansätze, wie Data Federation, EII oder EAI, ergänzt um User Management, Zugriffssteuerung und Nachverfolg- und Reproduzierbarkeit zum Einsatz in einer unternehmensweiten Datenstrategie. › Die Entkopplung von Quellen und Applikationen erlaubt eine schnelle Umsetzung neuer Reporting- und Analytics-Anforderungen und bietet eine hohe Flexibilität gegenüber künftigen Modernisierungszwängen. © INFOMOTION GmbH 20. Mai 2019 24
DATA WAREHOUSE AUTOMATION Definition: Data Warehouse Automation (DWA) ist ein methodischer und technologischer Ansatz zur automatisierten Generierung von Datenstrukturen und Beladungsstrecken eines DWHs anhand von standardisierten Design-Patterns. Grundlage hierzu liefert ein ausgereiftes Metadatenmodell, welches automatisch mit den Information über Strukturen der Quellsysteme befüllt wird. Hierauf aufbauend werden vorab definierte Design-Patterns mit diesen Metadaten instanziiert, um auf diese Weise das Zieldatenmodell der einzelnen Entitäten zu entwickeln und gleichzeitig lauffähige Beladungsprozesse zu erzeugt. Durch Customizing der Pattern können ganzheitliche DWH-Lösung erzeugt werden und sämtliche Implementierungsaufgaben im Rahmen der Generierung berücksichtig werden. Use Cases: Anbieter: › Vollständige Neuentwicklung eines DWHs (Greenfield) oder Bereitstellung eines Operational Data Stores (ODS) › Re-design eines bestehenden DWHs › Reverse-Engineering eines Data Marts und Neuentwicklung des Cores (z.B. Wechsel von 3NF zu Data Vault) Status Quo und Ausblick: › DWA besitzt eine große Hebelwirkungen für die Implementierungskosten und die Laufzeit von BI und DWH Projekten. Durch den generischen Ansatz können die Aufwände für die reine Implementierung signifikant reduziert werden. › Der Markt für DWA wächst und die entsprechenden Tools werden immer ausgereifter. Zudem erhöht sich kontinuierlich die Abdeckung der möglichen Zieltechnologien. Neben Beladungen, die auf SQL-Prozeduren für RDBMS wie MS-SQL und Oracle basieren, existieren auch Generatoren für etablierte ETL-Tools wie Informatica. › Aufgrund von Generatoren für Zieltechnologien aus dem Big Data Umfeld profitieren auch diese Projekte von DWA. Technologische Einstiegshürden können reduziert und Implementierungszeiten verkürzt werden. © INFOMOTION GmbH 20. Mai 2019 25
EVENT STREAM PROCESSING Definition: Das Event Stream Processing ist die Real-Time Verarbeitung von eingehenden Event-Daten, ohne diese vorab explizit zu speichern. Im Gegensatz zur klassischen (Micro) Batch orientierten Verarbeitung von Gruppen von Transaktions- oder Stammdaten werden hierbei eingehende Event- Daten direkt analysiert. Durch die Anwendung automatisierter Verfahren können auf Basis der Event-Daten direkte Aktionen ausgelöst werden. Use Cases: Anbieter: › Direkte Reaktion auf Kundeninteraktionen – zukünftig häufig auch auf Basis von IoT-Daten › Optimierung des Kundenservices durch die Möglichkeit, individuelle Angebote, basierend auf Echtzeit- Aktivitäten zu erstellen › Frühzeitige Erkennung von Problemen bzw. Defekten in Produkten oder Prozessen zur Unterbindung oder Abschwächung weitreichender Auswirkungen. Status Quo und Ausblick: › Die Anwendung von Event Stream Processing hat sich in den letzten Jahren häufig auf den Finanzsektor konzentriert und wurde dort häufig im zur Betrugserkennung aber auch dem automatisierten Handel eingesetzt. › Durch die Möglichkeiten und zukünftigen Notwendigkeiten allgemein im Kontext Big Data aber auch im speziellen im Bereich IoT ist aktuell bereits eine deutliche Zunahme der Anwendungsfälle erkennbar. › In vielen Bereich wird der stärkere Einsatz von Event Stream Processing durch die zeitnahen Reaktionen dazu führen, dass Produkte und Prozesse beim Nutzer „Smart“ wirken (Smart Products, Smart Services). © INFOMOTION GmbH 20. Mai 2019 26
GEO & LOCATION INTELLIGENCE Definition: Geo & Location Intelligence erweitert das BI-Spektrum um Komponenten zur raumbezogenen Analyse von Daten. Die daraus gewonnenen Informationen bringen eine zusätzliche Dimension mit sich, die neue Erkenntnisse in Ihren Datenbeständen offenbaren. Dies kann sowohl mit klassischem Ortsbezug (Geo Intelligence) als auch im erweiterten Sinne mit jeglichen Rauminformationen (Location Intelligence) geschehen. Use Cases: Anbieter: › Beantwortung der grundlegenden Frage nach dem „Wo“ › Visualisierung von räumlichen Verteilungen und Häufungen bzw. Zusammenhängen › Optimierung des Warenflusses in einem Logistiksystem › Bewertung von Lagerbewegungen › Analyse und Steuerung von Kampagnen Status Quo und Ausblick: › Datenbestände existieren häufig noch ohne Bezug zu erweiterten Rauminformationen. Diese wertvolle Datenquelle gilt es nutzbar zu machen. › Enormer Zuwachs der Datenmengen im Big Data Umfeld erfordert neue Werkzeuge, um diese verwertbar zu machen. Location Intelligence bietet hier einige Komponenten an. › Spatial-Funktionalitäten haben einen zunehmenden Stellenwert im Bereich des Data Science. Rauminformationen stellen neben Zeitinformationen eine grundlegende Datendimension dar. © INFOMOTION GmbH 20. Mai 2019 27
INFORMATION DESIGN Definition: Information Design ist die Visualisierung von Daten in einer Weise, welche ein effizientes und effektives Verständnis ermöglicht. Das umfasst die Entwicklung von Visualisierungsstandards und Richtlinien für Reports, Dashboards und Präsentationen. Use Cases: Standards: › Verbesserte Kommunikation innerhalb und zwischen Abteilungen › Schnellere Entscheidungsfindung auch in neuen Situationen › Verbesserte Self-Service BI › Vereinfachung von Visual Analytics Status Quo und Ausblick: › Derzeit fehlen geregelte Visualisierungsstandards in Unternehmen. › Der Trend zu Visualisierungsstandards wird insbesondere in der DACH Region immer relevanter. › Die Unterstützung von Visualisierungsstandards durch BI-Software wird häufig zu einem KO-Kriterium bei deren Selektion. © INFOMOTION GmbH 20. Mai 2019 28
IOT (EDGE) ANALYTICS Definition: Unter dem Internet of Things versteht man die Verschmelzung von Informations- und Kommunikationstechnik mit der physischen Umwelt. Objekte sind mit Sensoren, Software, Elektronik und Netzwerkfähigkeiten ausgestattet. Ein virtuelles Abbild des echten Produkts entsteht. Die Nutzung aktueller Technologien zur Analyse der von IoT Produkten erzeugten Daten nennt man IoT Analytics. Use Cases: Anbieter (Software › Erweiterung bestehender Produkte um innovative Applikationen - retrofitting approach Platforms): › Grundlage neuer Produkte und Services – smart connected products › Neugestaltung von Geschäftsprozessen – system of systems › Neue Geschäftsmodelle – Product-as-a-Service Status Quo und Ausblick: › Zurzeit werden bestehende Produkte um IoT Komponenten erweitert (Retrofitting Approach). › Es mangelt häufig noch an einer ausreichenden Anreicherung der IoT Daten mit anderen Daten des Unternehmens. › Daher wird das volle Potential für das eigene Unternehmen und Kunden noch nicht ausgeschöpft. › IoT wird mittelfristig insbesondere für produzierende Unternehmen zu einem Kernthema. › Branchenübergreifende Veränderungen und disruptive Marktveränderungen sind zu erwarten. © INFOMOTION GmbH 20. Mai 2019 29
LOGICAL DATA WAREHOUSE Definition: Das Logical Data Warehouse ist ein Architekturansatz, bei dem Daten aus verschiedensten Quellen inkl. einem klassischen Data Warehouse und weiteren verteilten Datensilos integriert und über eine Schnittstelle verfügbar gemacht werden. Hierbei werden die physischen Datenübertragungs-Architekturen, welche die Dynamik des Geschäftsfeldes nicht unterstützen bzw. den volatilen Anforderungen und der Verarbeitung von Massendaten nicht gerecht werden, zunehmend ersetzt. Neue Ansätze, wie der Einsatz einer LDW-Architektur berücksichtigen Anwendungen, welche über die Datensilo-zentrierte Implementierung hinausgehen. Use Cases: Anbieter: › Virtualisierungsfunktionen zur besseren Verbindung von Abfragen über verschiedene Datensilos und Datenbankentechnologien hinweg › Verteilte Batch Prozesse, z. B. zur Nutzung von Hadoop › Real Time Datenerhebung und Reporting › Ein Repository zur Unterstützung der Datenkonsolidierung Status Quo und Ausblick: › Bisher noch nicht stark verbreitet. Nutzung nimmt aber kontinuierlich zu. › Aufgrund der stärkeren explorativen Nutzung von Daten, der generell wachsenden Bedeutung von daten- basierten Entscheidungen und der hohen Auslastungssituation in den IT-Bereichen ist das LGW für sehr viele Unternehmen ein Thema mit hoher Priorität. © INFOMOTION GmbH 20. Mai 2019 30
MACHINE LEARNING Definition: Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte Daten beurteilen. Der Unterschied zum Begriff des Data Mining besteht darin, dass der Schwerpunkt auf der Prognose bzw. einer zielgerichteten Anwendung liegt und nicht dem Verstehen der zugrundeliegenden Gesetzmäßigkeiten. Des Weiteren geht mit dem Einsatz von Machine Learning Verfahren oft die Verwendung von großen Datenmengen mit vielen Merkmalen (hohe Datenkomplexität) einher. Use Cases: Anbieter: › Predictive Maintenance: Sensordaten werden in Echtzeit ausgewertet, um Ausfälle vorherzusagen oder anstehende Wartungen zu empfehlen › Recommender Systeme: Lernen aus dem Nutzerverhalten, welche Cross Selling Produkte angezeigt werden sollen, um den Absatz/Gewinn zu steigern › Zeitreihenprognosen: Ergebnisse aus Wertpapierhandel werden analysiert, um Empfehlungen für Käufe bzw. Verkäufe zu erteilen Status Quo und Ausblick: › Methoden des Machine Learning haben in den letzten Jahren große Durchbrüche erzielt (insb. Deep Learning). › Zukünftige Adaption in Anwendungssystemen und neue innovative Use Cases sind mit dem Einsatz von ML zu erwarten. © INFOMOTION GmbH 20. Mai 2019 31
MASTER DATA MANAGEMENT Definition: Master Data Management als Steuerungs- und Verwaltungsfunktion der Stammdaten ermöglicht im Wesentlichen das Speichern von Schlüsselinformationen über erfolgskritische Stammdaten, ein zentrales Update der Stammdaten, sowie die schnelle und automatisierte Überführung von Datenänderungen in die Zielsysteme. Status Quo und Ausblick: Anbieter: › Viele - auch sehr große Unternehmen – haben aktuell kein Master Data Management für erfolgskritische Stammdaten etabliert. Häufig werden Probleme, die durch unzureichende systemische Lösungen auftreten, durch Arbeitsanweisungen und hohe manuelle Aufwände behoben bzw. zumindest eingedämmt. › Um im Kontext der Digitalisierung von Prozessen und Kundeninteraktionen zu einem höheren Automatisierungsgrad und zu einer dafür notwendigen höheren Datenqualität zu kommen, werden immer mehr Unternehmen das Thema MDM noch einmal neu betrachten und für ausgewählte Datendomänen ein Master Data Management etablieren. © INFOMOTION GmbH 20. Mai 2019 32
METADATA MANAGEMENT Definition: Metadaten sind zusätzliche Informationen zu anderen Daten, Inhalten, Business Prozessen oder Services. Ein effektives Management der Metadaten bietet Klarheit in der Beziehung von Daten zueinander und Informationen über den Ursprung und Verarbeitungsverlauf der Daten. Zudem ermöglicht das Management den Aufbau eines unternehmensweiten konsistenten Vokabulars. Es ist die Grundlage für eine effektive Nutzung vorhandener und zukünftiger Daten, indem es deren Auffinden, Nutzen und Verwalten verbessert. Use Cases: Anbieter: › Suche im Repository nach Business Term und Erhalt eindeutiger Definition und Verknüpfungen (Business Glossary) › Rückverfolgung der Verarbeitung der Daten zur Fehlersuche oder besseren Interpretation (Data Lineage) › Kenntnis der Datennutzung ermöglicht es, die Auswirkungen von Änderungen in Datenstrukturen auf andere Systeme nachzuvollziehen (Impact Analysis) › Analysen können alle, mit dem System verknüpften Daten zu bestimmten Themenbereichen nutzen sowie die Informationen zu Beziehungen untereinander und zu anderen Daten verwenden (Basis für Data Science) Status Quo und Ausblick: › Zur Zeit werden meist techn. Metadaten gepflegt. Dies geschieht lokal, bei ETL Verarbeitungsschritten, im DW und in ERP Systemen. In traditionellen Anwendungsfällen ist der Bedarf nach Metadata Management geringer. › Bei zunehmender Datenvielfalt, -umfang und Automatisierung sind ausführliche, einheitliche und fachliche Metadaten für eine effektive Auswertung essentiell. Insbesondere in einem Data Lake ist Metadata Management zwingend notwendig, um die Daten für explorative Analysen nutzen zu können. › Mittelfristig werden ein Großteil aller Governance Richtlinien auf Basis von Metadaten und darauf aufbauenden Regelwerken automatisiert im Enterprise Data Management durchgesetzt. © INFOMOTION GmbH 20. Mai 2019 33
MOBILE BI Definition: Mobile Business Intelligence beschreibt die Möglichkeit, von mobilen Geräten auf BI-bezogene Daten wie KPIs und Dashboards zuzugreifen. Das Konzept der mobilen BI stammt aus den frühen 1990er Jahren, als die Mobiltelefonnutzung erstmals weit verbreitet wurde. Die frühen Befürworter des mobilen BI haben das Potenzial von Mobiltelefonen, die Verteilung von geschäftskritischen Daten an mobile oder entfernte Mitarbeiter zu vereinfachen sofort erkannt. Allerdings gewann das mobile BI erst größere Aufmerksamkeit mit dem Aufkommen des Smartphones. Use Cases: Anbieter: › Mobile BI adressiert den Anwendungsfall von entfernten oder mobilen Mitarbeitern, die on-Demand Zugang zu geschäftskritischen Daten benötigen. › Zum Beispiel ist ein Verkaufsleiter in der Lage, wichtige Kennzahlen zu überprüfen, auch wenn er auf einer Messe und somit 1000 km von seinem Büro entfernt ist. Status Quo und Ausblick: › Die Vorrausetzung ist ein BI-Tool, welches mobile und lokale Anwendungen unterstützt. Es sollten möglichst viel Inhalte wiederverwendet werden können, ohne das die Funktionalität oder Benutzerfreundlichkeit beeinträchtigt wird. › Mit den richtigen Features kann das mobile UX schnell, agil und einfach sein. Features wie Responsive Design, Scrollen und "Swipe" werden sicherlich die Trends für die nächsten Jahre sein. › Mobile BI wird bereits aktuell und auch zukünftig in ausgewählten Use Cases einsetzt. © INFOMOTION GmbH 20. Mai 2019 34
NATURAL LANGUAGE GENERATION Definition: Bei Natural Language Generation handelt es sich um eine automatisierte Erstellung von freien Texten auf Basis von strukturierten Daten. Hierbei werden nicht nur einzelne Textelemente in einem festen Text ausgetauscht, sondern auch vollständig freie Texte auf Basis von Lösungen aus dem Bereich der künstlichen Intelligenz erzeugt. Use Cases: Anbieter: › Ersatz von grafisch / tabellarischen Beschreibungen durch Fließtexte › Kommentierung von Analyseergebnissen zum besseren Verständnis bzw. zur Ergänzung von weiterführenden Informationen › Automatisierte Erstellung von Antworttexten für Fragen im Helpdesk oder auf der Webseite Status Quo und Ausblick: › Aktuell ein Spezialthema mit wenigen Kunden und wenigen Anbietern. › Durch die rasante Weiterentwicklung des Themas Machine Learning auf der einen Seite und die steigendende Wichtigkeit von Daten und den darauf aufbauenden Services auf der anderen Seite wird das Thema deutlich an Bedeutung zunehmen. › NLG wird ein wesentlicher Baustein in der zukünftigen stark automatisierten Kommunikation neben der reinen Machine-to-Machine-Kommunikation. © INFOMOTION GmbH 20. Mai 2019 35
NATURAL LANGUAGE QUESTION ANSWERING Definition: NLQA-Systeme wie Siri, Google und Watson beschäftigen sich mit der natursprachlichen Verarbeitung und der rechnerischen Linguistik, um Benutzerfragen direkt zu beantworten. Durch die Reduzierung der Beantwortungszeit bieten diese virtuellen Assistenten, Suchmaschinen und kognitiven Systeme einen verbesserten Geschäftswert. Use Cases: Anbieter: › Der Hauptbereich von NLQA besteht darin, eine einfach zu bedienende Benutzeroberfläche anzubieten. Diese Oberfläche ermöglicht es auch Benutzern, welche keine Technologieexperten sind, den Inhalt auf einem beliebigen Gerät / Infrastruktur (z.B. PCs, Mobiltelefone, Tabletten, Cloud) durch den Einsatz natürlicher, menschlicher Sprache zu durchsuchen. Dies geschieht durch die Bereitstellung spezifischer und genauer Antworten auf die auferlegten Fragen, anstatt der Suche nach relevanten Inhalte oder Keyword-Matches. Status Quo und Ausblick: › Aktuell wird natürliche Sprache nur in sehr geringem Umfang in BI-Systemen eingesetzt. › Im Zuge der Weiterentwicklung der Personal Assistant Systeme von Google, Apple und weiteren Herstellern wird das Thema NLQA auch in BI-Systemen relevanter werden. © INFOMOTION GmbH 20. Mai 2019 36
NEAR REAL-TIME DATA WAREHOUSING Definition: Traditionell wird ein Data Warehouse periodisch – täglich bis wöchentlich – aktualisiert. Nach Abschluss einer Geschäftstransaktion kommt es daher zu einer Verzögerung bis diese Transaktion im Data Warehouse verfügbar ist. Das Ziel von Near Real-Time Data Warehousing ist es die Intervalle zwischen Aktualisierungen zu reduzieren bis eine Verfügbarkeit von neuen Daten in nahezu Echtzeit im Data Warehouse gewährleistet ist. Als Resultat können Entscheidungen auf Grundlage der aktuellsten und damit genausten Daten gefällt werden. Durch den kleineren Beladungszyklus können schneller Korrekturen vorgenommen werden, klassisch braucht es oft bis zur nächsten Beladung um den operativen Zustand wiederherzustellen. Use Cases: Anbieter: › Automatisierte Prozesse: ETF Trading folgt sich Minute zu Minute ändernde Kursentwicklung › Last Minute Sale: Flugzeug Sitzplätze können bis zum Boarding noch neugebucht werden und Last Minute Angebote geschaltet werden › e-Government: Elektronische Rezepte sind direkt nach Ausstellung abrufbar Status Quo und Ausblick: › Near Real-Time Data Warehousing bedarf oft einer Anpassung entweder der bestehenden DWH Architektur, des Datenmodells und/oder Einsatz von neuerer Datenbank-Technologie › Real-Time nicht für alle Geschäftsmodelle erforderlich. Daher ist zu identifizieren welche Zeitauflösung für das Geschäftsmodell benötigt wird. › Bei großen Datenmengen kann sich der ergänzende Einsatz eines Real-Time Data Lakes empfehlen © INFOMOTION GmbH 20. Mai 2019 37
OPEN & EXTERNAL DATA Definition: Unternehmensinterne Datenbestände können mit frei verfügbaren und käuflich erwerbbaren externen Daten erweitert werden. Hierbei werden unter dem Schlagwort Open Data Datenbestände zusammengefasst, die im Interesse der Allgemeinheit ohne Einschränkung zur freien Nutzung, Weiterverbreitung und Weiterverwendung zugänglich gemacht werden. Use Cases: Anbieter: › Wettbewerbsanalysen durch zusätzliche Marktdaten › Wetterabhängige Vertriebsanlässe › Kundensegmentierung im B2C-Umfeld Status Quo und Ausblick: › Derzeit niedrige Nutzung externer Daten, die über klassische Anbieter wie Mikro-, Makro-, Wetter- und Finanzdaten hinausgehen. › Es existieren zurzeit über 5.000 kleinere Data Broker und über 10 Millionen Open Data Sets. › Bis 2019: 75% aller analytischen Lösungen verwenden mind. 10 externe Datenquellen (Gartner). › INFOMOTION geht davon aus, dass sich in den nächsten Jahren verstärkt Data Broker am Markt etablieren und nach einer Konsolidierungswelle bis 2020 sehr große starke Player mit sehr großem und standardisierten Datenangebot entstehen. © INFOMOTION GmbH 20. Mai 2019 38
OPERATIVE BI & ANALYTICS Definition: Operative Business Intelligence (OpBI) ist die IT-basierte Integration und Analyse von Prozessdaten. Ein Ziel ist die Schaffung von Transparenz hinsichtlich Struktur und Leistungsfähigkeit von Geschäftsprozessen. OpBI befähigt Manager aus dem operativen Entscheidungsumfeld, um situationsbedingt in Prozesse einzugreifen und diese permanent zu verbessern. Es geht darum, wertvolle Informationen zu generieren, Zusammenhänge aufzudecken, Prozesse zu optimieren und frühzeitig Trends abzuleiten. Use Cases: Anbieter: › Optimierte Wertschöpfungsketten - von der Entwicklung über die Fertigung, Logistik und gezielte Vermarktung bis zu damit verbundenen Dienstleistungen › Kurzer, zukunftsgerichteter Analyse-Horizont mit einem möglichst individuellen Blick auf einzelne Produkte, Chargen, bestimmte Zielgruppen oder den Endkunden › Einsichten aus kombinierten Datenbeständen (strukturierte und unstrukturiert Daten) - idealerweise direkt zur Laufzeit der Abfrage › Frühzeitiges Aufspüren von Trends mittels Telemetrie, Sensor Intelligence, Data Mining und Predictive Analytics Status Quo und Ausblick: › In aktuellen Studien betrachten weit über die Hälfte der befragten Unternehmen operative Abläufe als wichtigstes Anwendungsfeld für analytische IT-Werkzeuge und BI-Techniken. › Anbieter positionieren das Thema „OpBI & Analytics“ als Kern des „Intelligent Enterprise“. › INFOMOTION kombiniert Data Intelligence mit Business Analytics in dispositiven und operativen Umgebungen. © INFOMOTION GmbH 20. Mai 2019 39
Sie können auch lesen