Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade

Die Seite wird erstellt Sarah Michels
 
WEITER LESEN
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
Arbeiten mit Google BigQuery
Wie Rohdaten die Webanalyse verändern
Whitepaper
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade


Inhalt

1. Digitale Analyse im Wandel���������������������������������������������������������������������������������������������� 3

2. Rohdatenanalyse mit BigQuery���������������������������������������������������������������������������������������� 4

    2.1 Was ist eigentlich BigQuery?������������������������������������������������������������������������������������� 4

    2.2 Eignung von BigQuery als Data Warehouse��������������������������������������������������������������� 4

    2.3 Arbeiten mit Rohdaten in BigQuery�������������������������������������������������������������������������� 6

    2.4 Advanced Analytics mit BigQuery (Use Cases)���������������������������������������������������������� 8

        2.4.1 Recommendation Engines����������������������������������������������������������������������������������� 9

        2.4.2 Real Time Marketing Attribution����������������������������������������������������������������������� 10

        2.4.3 Google Ads Automatisierung ���������������������������������������������������������������������������� 11

3. Empfehlung��������������������������������������������������������������������������������������������������������������������� 12

Über mohrstade������������������������������������������������������������������������������������������������������������������ 13

Veröffentlichung dieses Whitepapers: Juli 2021

                                                                                                                                   2
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
Digitale Analyse im Wandel

1. Digitale Analyse im Wandel

Mit der fortschreitenden Digitalisierung in Unternehmen gewin-      der Daten in den einzelnen Tools und somit eine zentrale und
nt die zentralisierte Datenerhebung und Datenanalyse stetig an      standardisierte Datenbank.
Bedeutung. Der Begriff “Data Driven” wird immer mehr zur Leit-      Durch Plattformstrategien wie der Google Marketing Platform
kultur und somit fester Bestandteil der strategischen Unterneh-     (GMP) und der Google Cloud Platform (GCP) werden die Ein-
mensentwicklung. Ein grundlegendes Problem stellt jedoch die        trittsbarrieren in der Nutzung von Rohdaten systematisch auf-
Verwendung zahlreicher Tools und Quellsysteme im Unterneh-          gelockert. Aufgrund des breiten Spektrums an Product Linkings,
men dar. Daten befinden sich in Silos - es entstehen fragmen-       APIs, integriertem Machine Learning und günstigem Hosting,
tierte Nutzerprofile, welche sich schwer vereinheitlichen lassen.   wird das Arbeiten mit Rohdaten auch für kleine bis mittelstän-
Hinzu kommt die Aggregierung der Daten sowie toolspezifische        dische Unternehmen deutlich einfacher und attraktiver. Mit
Definitionen von Kennzahlen. Das Resultat ist eine Abnahme          der Einführung des BigQuery Streaming Exports in Google An-
der Datenqualität bei gleichzeitig steigenden Anforderungen         alytics 4 (GA4) wurde erstmals auch Nutzern ohne Enterprise
an die Analyse. Zusätzlich sind Unternehmen häufig mit Per-         Lizenz (GA 360) die Nutzung von Google Analytics Rohdaten er-
sonal- und Zeitkosten konfrontiert, sobald sie in fortgeschrit-     möglicht. Durch das Hosting der Rohdaten innerhalb der Google
tenere Analysen eintauchen wollen. Die Arbeit mit Rohdaten          Cloud steht ein breites Spektrum an erweiterten Analyse- und
erfordert versiertere Fähigkeiten als ein grafisches Reporting      Modellierungsfunktionen durch weitere Produkte der GCP zur
Interface abverlangt. Um weiterhin wettbewerbsfähig zu sein,        Verfügung. Das Arbeiten mit Rohdaten in BigQuery birgt da-
müssen Unternehmen datengetrieben arbeiten. Hierzu genügt           her sehr viel Potenzial für die Marketing-Optimierung. App und
es jedoch nicht, Daten aus allen Systemen zu zentralisieren und     Web Daten können nicht nur mit Daten aus anderen Systemen
zu analysieren. Häufig scheitert es nicht an der Zentralisierung    verbunden werden, sondern mittels bereitgestellter Algorith-
der Daten, sondern an der Gewinnung von Erkenntnissen aus           men und komplexer Abfragen viel genauer und zielführender
der Analyse für die Ableitung zukünftiger Maßnahmen. Dies           analysiert werden, als es ein Interface von Google Analytics er-
erfordert wiederum die Möglichkeit einer direkten Aktivierung       möglichen könnte.

                                                                                                                                 3
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
Rohdatenanalyse mit BigQuery

2. Rohdatenanalyse mit BigQuery

Das Arbeiten mit Rohdaten in BigQuery bietet eine Vielzahl von   welche Möglichkeiten für eine Daten-Infrastruktur bereitstehen
Vorteilen gegenüber einer klassischen Data Warehouse-Lösung.     und welche komplexen Use Cases sich unter anderem mit Rohdat-
Warum sich BigQuery als Data Warehouse besonders gut eignet,     en abbilden lassen, erfahren Sie in den folgenden Abschnitten.

2.1 Was ist eigentlich BigQuery?

Google BigQuery ist ein serverloses, hoch skalierbares           ohne eine Infrastruktur zu verwalten und ohne Indizes er-
Data Warehouse, das mit einer integrierten Abfrage-En-           stellen oder neu aufbauen zu müssen. BigQuery ist Be-
gine ausgestattet ist. Die Abfrage-Engine ist in der Lage,       standteil der Google Cloud Platform (GCP) und verfügt
SQL-Abfragen auf Terabytes von Daten in wenigen Sekun-           dadurch über ein ganzes Ökosystem an komplementären
den und Petabytes in nur wenigen Minuten auszuführen.            Diensten zur Weiterverarbeitung und Analyse der Rohdaten.
Diese Leistung kann dabei in Anspruch genommen werden,

2.2 Eignung von BigQuery als Data Warehouse

Der grundlegende Gedanke bei dem Aufbau oder Umzug               und Rechenkapazität wird dadurch je nach benötigter Daten-
in ein cloudbasiertes Data Warehous, wie BigQuery, ist die       menge automatisch festgelegt. Als integrativer Bestandteil der
Trennung von Storage und Compute, wodurch sich beide             Google Cloud Platform (GCP) bringt die Nutzung von BigQuery
Teile den Anforderungen entsprechend skalieren und               jedoch eine Vielzahl weiterer Vorteile mit sich:
kostengünstig betreiben lassen. Die erforderliche Speicher-

                                                                                                                             4
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
Rohdatenanalyse mit BigQuery

           Flexible Datenanbindung
           Der BigQuery Connector ermöglicht programmatischen Lese-/Schreibzugriff auf BigQuery. Dies ist eine ideale
           Methode, um in BigQuery gespeicherte Daten zu verarbeiten. Der Connector ist eine Bibliothek, mit der Spark-
           und Hadoop-Anwendungen Daten aus BigQuery verarbeiten und Daten mithilfe ihrer nativen Terminologie
           in BigQuery schreiben können. Hinzu kommt die vollständige Unterstützung von Standard und Legacy SQL
           einschließlich der Unterstützung von Arrays und komplexen Joins. Insbesondere die Unterstützung für Arrays
           macht es möglich, hierarchische Daten (z. B. JSON-Datensätze) in BigQuery zu speichern, ohne dass die
           verschachtelten und sich wiederholenden Felder reduziert werden müssen.
           Zudem bieten viele Produkte aus dem Google Universum als auch Third Party-Anbieter mittlerweile BigQuery
           Linkings und Connectoren an, wodurch eine einfache Anbindung der Daten möglich ist.

           Flexible Preismodelle
           Durch die bereits beschriebene Trennung von Storage und Compute bedarf es zur Nutzung von BigQuery keiner
           Bereitstellung einzelner Instanzen oder virtueller Maschinen. BigQuery weißt Rechenressourcen automatisch
           nach Bedarf zu. Die Computing-Kapazität lässt sich ebenfalls in Form von Slots (virtueller CPUs) reservieren.
           Darüber hinaus bietet BigQuery kostenlose Vorgänge und eine kostenlose Nutzungsvariante. Die Preisstruktur
           von BigQuery spiegelt diese Flexibilität in ihren zwei Hauptkomponenten wider:

           Analysepreise
           Die Kosten für die Verarbeitung von Abfragen. Dazu gehören SQL-Abfragen, benutzerdefinierte Funktionen,
           Skripts sowie Anweisungen für bestimmte Datenbearbeitungssprachen (DML) und Datendefinitionssprachen zum
           Scannen von Tabellen.

           Speicherpreise
           Kosten für das Speichern von Daten in BigQuery. Bei BigQuery fallen für bestimmte Vorgänge wie das Streamen
           von Insert-Anweisungen und die Nutzung der BigQuery Storage API Kosten an.

           Real (Near-)Time Funktionen
           BigQuery bietet Realtime Data Streaming Funktionen an, die es erlauben, Daten innerhalb weniger Sekunden
           oder Minuten in BigQuery weiterzuverarbeiten. Mit Google Analytics 4 steht nun auch Basis-Nutzern die
           Möglichkeit eines Realtime Exports der Daten über den BigQuery Connector zur Verfügung.

           Service Level Agreement (SLA)
           Während der Laufzeit des geltenden Lizenzvertrags für Google BigQuery ist der Service betriebsbereit und für
           den Kunden verfügbar, wie im aktuellen SLA festgelegt. Weitere Informationen über das SLA finden Sie sich in der
           offiziellen Dokumentation von Google.

           Machine Learning
           Bisher war BigQuery darauf beschränkt, lediglich lineare Modelle für maschinelles Lernen zu erstellen und
           auszuführen. Seit Ende letzten Jahres wurden die Funktionen um die nichtlinearen Modelltypen Boosted Trees
           für XGBoost, Deep Neural Networks (DNNs) für TensorFlow und AutoML Tables erweitert. Die mit BigQuery
           trainierten Modelle lassen sich zudem exportieren, um sie für Vorhersagen in der Google Cloud Vertex AI oder in
           vergleichbaren Umgebungen zu nutzen.

                                                                                                                              5
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
Rohdatenanalyse mit BigQuery

                  Datenverwaltung und -sicherheit
                  BigQuery ist so entwickelt, dass sich Nutzer darauf konzentrieren können, die Daten zu analysieren und
                  Erkenntnisse zu gewinnen, ohne sich dabei grundlegende Gedanken um die technische Infrastruktur machen
                  zu müssen, da der Speicher vollständig von dem Dienst verwaltet wird. Die Tatsache, dass grundlegend keine
                  aufwändige Infrastruktur für das Datenmanagement eingerichtet werden muss, führt zu weniger Problemen in
                  Bezug auf Sicherheit und Stabilität der Daten-Pipelines. Die Daten in BigQuery werden automatisch verschlüsselt,
                  sowohl im Ruhezustand als auch bei der Übertragung. BigQuery kümmert sich um die Sicherheitsaspekte bei
                  der Unterstützung mandantenfähiger Abfragen und der Isolierung zwischen Jobs. Datensätze können mit Google
                  Cloud Identity and Access Management (IAM) freigegeben werden. Ebenso ist es möglich, die Datensätze
                  und deren Tabellen und Ansichten so zu organisieren, dass sie verschiedenen Sicherheitsanforderungen
                  entsprechen. In anderen Systemen nimmt die Bereitstellung der Infrastruktur für Zuverlässigkeit, Elastizität,
                  Sicherheit und Leistung oft viel Zeit in Anspruch. Da sich diese administrativen Aufgaben mit der Nutzung von
                  BigQuery minimieren lassen, bleibt mehr Zeit für die tatsächliche Analyse der Daten sowie der Gewinnung von
                  Erkenntnissen.

2.3 Arbeiten mit Rohdaten in BigQuery

Die traditionelle Art, mit einem Data Warehouse zu arbe-           Die Daten-Pipeline, die in der Regel über einen Connector mit
iten, beginnt mit einem ETL-Prozess (Extrahieren, Trans-           Apache Beam oder Apache Spark geschrieben wird, extrahiert
formieren und Laden), bei dem Rohdaten aus ihrem Quell-            die erforderlichen Bits aus den Rohdaten (entweder Stream-
system extrahiert, transformiert und dann in das Data              ing-Daten oder Batch-Dateien), transformiert die extrahierten
Warehouse geladen werden. BigQuery verfügt als cloud               Daten, um alle erforderlichen Bereinigungen oder Aggrega-
basierte Data Warehouse-Lösung über ein natives, hocheffi-         tionen durchzuführen, und lädt sie dann in BigQuery. Das fol-
zientes, spaltenförmiges Speicherformat, welches den klas-         gende Schaubild veranschaulicht eine klassische ETL-Pipeline
sischen ETL-Prozess zu einer attraktiven Methodik macht.           mit der Nutzung von Google Cloud Services und BigQuery als
                                                                   Data Warehouse.

                                                                                                                                     6
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
Rohdatenanalyse mit BigQuery

1.           Der Connector lädt die Batch-Daten vor oder während der Jobausführung in einen Cloud Storage-Bucket. Nachdem der
             Job erfolgreich abgeschlossen wurde, werden die Daten aus dem Cloud Storage gelöscht. Der Storage dient im ETL Prozess
             als einheitlicher Objekt-Speicher für Batch-Dateien diverser Quellsysteme.

2.           Der Dienst Cloud Pub/Sub fungiert als ansynchrone Messaging-Middleware von Realtime Data Streams. Dieser stellt
             Ressourcen für die Aufnahme, Verarbeitung und Analyse schwankender Echtzeit Datenmengen bereit und ermöglicht in
             Verbindung mit Cloud Dataflow und BigQuery eine Analyse und Auswertung der Daten in Echtzeit.

3.
             Die Batch- und Stream-Pipeline werden in Cloud Dataflow zusammengeführt. Cloud Dataflow ermöglicht Nutzern häufig
             verwendete Quelle-Ziel-Muster (source target patterns) mit Open Source-Vorlagen einfach einzurichten.

4.
             Anschließend werden die transformierten Daten über Cloud Dataflow in BigQuery geladen und stehen zur Analyse bereit.

Auch wenn der Aufbau einer ETL-Pipeline mittels Apache Beam         sind. Diese Fähigkeit wird als federated querying bezeichnet.
oder Apache Spark gängig ist, ist es dennoch möglich, eine Daten-   Daten lassen sich so mithilfe von SQL-Abfragen gegen im Google
Pipeline auch direkt in BigQuery zu integrieren. Da BigQuery        Cloud Storage gespeicherte Daten extrahieren und transformie-
die Berechnung und Speicherung trennt, ist es möglich, BigQ-        ren, um dann die Ergebnisse in einer nativen BigQuery-Tabelle
uery-SQL-Abfragen gegen CSV- (oder JSON- und Avro-) Dateien         zu initialisieren. Das folgende Beispiel beschreibt einen in der
auszuführen, die in einem Google Cloud Storage gespeichert          Praxis gängigen EL-Prozess von E-Commerce Shop-Daten.

Über einen Google Cloud Storage lassen sich beispielsweise          wenn man so will. Das anschließende Laden der Daten in den
tagesaktuelle Shopdaten gegen einen Cloud Storage abfragen          nativen Speicher von BigQuery bietet dabei die effizienteste
und in BigQuery in Form einer Tabelle analysieren. Eine ande-       Abfrageleistung.
re Möglichkeit stellt das BigQuery Realtime Transmitting oder
auch BigQuery Data Streaming dar. Hierbei können Daten aus          Neben dem Aufbau einer klassischen Daten-Pipeline bietet
einer externen Datenquelle transformiert und direkt an BigQ-        BigQuery von Haus aus jedoch noch ein breiteres Spektrum
uery geschickt werden (bspw. durch ein Python Script).              an verfügbaren Services, die das Arbeiten mit Rohdaten in der
                                                                    Google Cloud attraktiver gestalten. Das folgende, vereinfachte
Wenn keine Transformation erforderlich ist, kann BigQuery           Schaubild, gibt einen Überblick über das Potenzial in der Nutzu-
Standardformate wie CSV, JSON oder Avro direkt in seinen na-        ng von BigQuery als zentrales Data Warehouse im digitalen
tiven Speicher einlesen - ein EL-Workflow (Extract and Load),       Ökosystem.

                                                                                                                                    7
Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
Rohdatenanalyse mit BigQuery

Die direkte Konnektivität zu Produkten der Google Cloud             Looker, Power BI und Google Data Studio verwendet werden,
oder der Google Marketing Platform als auch des BigQuery            um aussagekräftige Analysen, Visualisierungen und Berichte
Data Transfer Service, wodurch sich Data Streams zu weiteren        über die in BigQuery enthaltenen Daten zu erstellen. Großes
Google Produkten (Bsp. YouTube, Google Play Store etc.) oder        Potenzial liegt ebenfalls in der Aktivierung der Rohdaten.
Data Warehouse Systemen (Bsp. AWS) nutzen lassen, ergeben           Wie schon erwähnt, bietet BigQuery eine direkte Konnektivi-
sich nahezu unbegrenzte Möglichkeiten in der Anreicherung           tät zu weiteren Services der Google Cloud Platform an. Somit
und Weiterverarbeitung der Rohdaten. Zusätzlich können              lassen sich die Daten durch integriertes Machine Learning
eine Vielzahl von Business Intelligence (BI)-Tools wie Tableau,     beispielsweise für Vorhersagen und Personalisierung einsetzen.

2.4 Advanced Analytics mit BigQuery (Use Cases)

Dass sich BigQuery durch einen hohen Grad an Konnektivität          wurde bereits umfassend dargestellt. Um ein besseres Ver-
sowie Komplementarität zu einer Vielzahl von Produkten und          ständnis für die praktische Umsetzung zu bekommen, werden
Services auszeichnet und sich somit besonders gut für die Weiter-   im Folgenden drei Use Cases aus der Praxis vorgestellt.
verarbeitung von Rohdaten und komplexere Analysen eignet,

                                                                                                                                8
Rohdatenanalyse mit BigQuery

2.4.1 Recommendation Engines

Recommendation Engines (RE) stellen die Technologie hint-           Bedürfnissen entsprechen, indem Sie bereits gekaufte Produk-
er Vorschlagsfunktionen von E-Commerce Websites dar.                te ergänzen oder ähnliche Kaufprofile anderer Nutzer vorschla-
Eine Recommendation Engine verbessert die User Experi-              gen.
ence, indem sie den Nutzern relevante Artikel oder Inhalte          Durch die Nutzung von BigQuery in Verbindung mit weiteren
zur richtigen Zeit und auf der richtigen Seite anbietet. Ange-      GCP Services lässt sich ohne großen technischen Aufwand in
sichts der fortschreitenden Verlagerung der Customer Jour-          wenigen Schritten eine Recommendation Engine für einen On-
ney, insbesondere im Einzelhandel, ist die Gewährleistung           lineshop einrichten. Die Einrichtung einer Recommendation En-
eines hochgradig personalisierten Einkaufserlebnisses für           gine mit Hilfe von GA4, BigQuery und der Recommendations AI
Online-Nutzer von entscheidender Bedeutung für die weit-            (Reco AI), als Google Cloud Service, wird in diesem Schaubild
ere Kundenbindung. Recommendation Engines helfen Kund-              veranschaulicht.
en dabei, Produkte zu entdecken, die ihren Vorstellungen und

1.           Zuerst werden die Produktdaten in Form eines Produktkataloges in die Reco AI eingelesen, damit diese später als
             Datengrundlage für dynamische Empfehlungen verwendet werden können.

2.           Über den auf der Website implementierten GTM-Container werden Produkt-Interaktionen des Nutzers erfasst und direkt
             an GA4 übermittelt. Dabei wird das im dataLayer ausgesteuerte Ecommerce-Object zusätzlich über ein spezielles Tag im
             GTM an die Reco AI übermittelt.

3.           Die Prediction API wählt anhand der vorgenommenen Einstellungen in der Reco AI (Auswahl des Empfehlungsmodells,
             Optimierungsziel etc.) und der Datengrundlage des spezifischen Nutzers Produktempfehlungen aus dem Produktkatalog
             aus und überliefert das Ergebnis an den Google Tag Manager.

4.           Über den Google Tag Manager werden die Daten nun in den auf der Seiten integrierten Container ausgeliefert und dem
             Nutzer während seiner Sitzung dynamisch anhand aktueller Informationen angezeigt.

                                                                                                                                    9
Rohdatenanalyse mit BigQuery

2.4.2 Real Time Marketing Attribution

Bevor es zum Kauf (Conversion) kommt, bewegt sich der         Marketingkanälen (Cross-Channel) zu verteilen. Leider findet
Kunde in den meisten Fällen über mehrere Marketing-           die Optimierung innerhalb der Marketingkanäle (Intra-Channel)
kanäle hinweg. Marketingaktivitäten sollten daher auf Grun-   nicht Kanalübergreifend (Cross-Channel) statt. Die Optimierung
dlage der ganzen Customer Journey betrachten werden,          innerhalb einzelner Marketingkanäle findet deshalb nicht auf
um dessen Effektivität ganzheitlich beurteilen zu kön-        der gleichen Datengrundlage statt, was zu Fehlentscheidungen
nen. Diese Erkenntnisse können dann genutzt werden,           führt. Realtime Marketing Attribution kann dabei genau dieses
um das Marketing-Budget besser zwischen den einzelnen         Problem lösen.

Mit GA4 und dem BigQuery Realtime Export steht erst-          Dieser Wert wird wiederum an alle Marketing Tools übergeben
mals ein praxistauglicher Ansatz für eine ganzheitliche       und kann dort innerhalb der einzelnen Tools (Intra-Channel) für
Bewertung der Marketing Kanäle zur Verfügung. Hier-           operative Optimierungen genutzt werden.
bei wird bei jedem Kaufabschluss der Conversion Value         Ein detaillierter Einblick in die technische Umsetzung wird im
basierend auf einem Attributionsmodell anhand der ge-         exklusiven mohrstade Whitepaper Realtime Marketing Attribu-
samten Customer Journey (Cross-Channel) berechnet.            tion vorgestellt.

                                                                                                                         10
Rohdatenanalyse mit BigQuery

2.4.3 Google Ads Automatisierung
      (Bsp. Dynamische Sitelinks)

Mithilfe des BigQuery Exports in GA4 lassen sich diverse Abläufe   Anzeigen. Hierbei soll das verkaufsstärkste Produkt der letzten
für Google Ads automatisieren. Ein praxistaugliches Beispiel       120 Tage mit Preis und passender Verlinkung dynamisch einge-
wäre die automatische Anpassung von Sitelinks in Google Ads        fügt werden. Verdeutlicht wird dies im folgenden Schaubild:

Über das GA4 BQ Linking werden die Google Analytics Dat-           der Daten ebenfalls dynamisch auf tagesaktueller Basis in den
en zu BigQuery in einem Dataset exportiert. In BigQuery            Anzeigen angepasst. Dieser Automatisierungsprozess mithil-
werden die Daten anschließend mit einem einfachen SQL              fe von Rohdaten aus BigQuery kann jedoch für viele weitere
Statement transformiert und in Form einer Tabelle bere-            Cases bspw. Keywords oder Kampagnenautomatisierung ver-
itgestellt, damit sie in Google Ads verwendet werden kön-          wendet werden. Ein detaillierter Einblick in die technische Ein-
nen. Die Tabelle wird dabei täglich durch einen sched-             richtung und Umsetzung findet sich in unserem zugehörigen
uled query automatisch aktualisiert. In Google Ads wird            MarTechSnack #8 | Google Ads Automatisierung mit GA4 BigQ-
anschließend mithilfe von Ads Skript der Sitelink auf Basis        uery Daten.

                                                                                                                               11
Empfehlung

3. Empfehlung

Das Arbeiten mit Rohdaten mit BigQuery birgt sehr viel Mar-      Es sollte sich also nicht die Frage gestellt werden warum man
keting Optimierungspotenzial. App und Web Daten kön-             langfristig auf eine Nutzung der Rohdatenanalyse durch BigQ-
nen nicht nur mit Daten aus anderen Systemen verbunden           uery zurückgreifen sollte, sondern warum nicht. Der Funktion-
werden, sondern mittels bereitgestellter Algorithmen und         sumfang und die daraus resultierenden Möglichkeiten für Opti-
komplexer Abfragen viel genauer und zielführender anal-          mierungspotenziale steigen rasant. Jedes Unternehmen sollte
ysiert werden, als das Google Analytics Interface ermöglicht.    deshalb jetzt anfangen, sich mit dem Thema Rohdaten ausein-
Zudem bietet das Arbeiten innerhalb der Cloud Umgebung           andersetzen, um intern eine Expertise aufzubauen.
viele Möglichkeiten, die aus der Analyse gewonnene Ergeb-
nisse und Erkenntnisse anderen Tools zur Verfügung zu stellen.

                                                                                                                          12
Über mohrstade

Unternehmen

mohrstade ist eine Beratung für Marketing Technologie in München und Hamburg. mohrstade ist spezialisiert auf Projekte in den Bereichen
Data Collection, Data Management, Analytics, Marketing Activation und Data Visualization. Diese Services bietet mohrstade in zertifizierten
Partnerschaften mit Marketing Software Herstellern an.

Managing Partner

   Patrick Mohr                                                           Marcus Stade
   Co-Founder & Managing Partner                                          Co-Founder & Head of Analytics

   Patrick ist Gründer und Geschäftführer von mohrstade.                  Marcus ist Gründer von mohrstade und Head of Analytics.
   Bereits während seines Studiums für BWL, Finance                       Darüber hinaus ist er Co-Organisator von Analytics Pioneers
   und Information (MSc) sammelte er Erfahrungen im                       - der größten Analytics Community im DACH-Raum. Zuvor
   Management Consulting. Später arbeitet er als SEA                      hat er im Bereich Web-Development und Online-Marketing
   Manager, Data Scientist und Analytics Consultant bei Rocket            gearbeitet. Auf seinem Blog www.marcusstade.de schreibt
   Internet, Group M und UDG. 2017 baute er schließlich den               er regelmäßig zu Themen der Digitalen Analyse.
   Münchner Standort von Trakken auf. Parallel arbeitet er
   als Dozent an Universitäten. Darüber hinaus ist er Co-
   Organisator von Analytics Pioneers - der größten Analytics
   Community im DACH-Raum.

                    patrick@mohrstade.de                                                   marcus@mohrstade.de

                                                                                                                                      13
Mohr & Stade GmbH
Schillerstraße 14
80336 München

www.mohrstade.de
Sie können auch lesen