Arbeiten mit Google BigQuery - Wie Rohdaten die Webanalyse verändern Whitepaper - mohrstade
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Inhalt 1. Digitale Analyse im Wandel���������������������������������������������������������������������������������������������� 3 2. Rohdatenanalyse mit BigQuery���������������������������������������������������������������������������������������� 4 2.1 Was ist eigentlich BigQuery?������������������������������������������������������������������������������������� 4 2.2 Eignung von BigQuery als Data Warehouse��������������������������������������������������������������� 4 2.3 Arbeiten mit Rohdaten in BigQuery�������������������������������������������������������������������������� 6 2.4 Advanced Analytics mit BigQuery (Use Cases)���������������������������������������������������������� 8 2.4.1 Recommendation Engines����������������������������������������������������������������������������������� 9 2.4.2 Real Time Marketing Attribution����������������������������������������������������������������������� 10 2.4.3 Google Ads Automatisierung ���������������������������������������������������������������������������� 11 3. Empfehlung��������������������������������������������������������������������������������������������������������������������� 12 Über mohrstade������������������������������������������������������������������������������������������������������������������ 13 Veröffentlichung dieses Whitepapers: Juli 2021 2
Digitale Analyse im Wandel 1. Digitale Analyse im Wandel Mit der fortschreitenden Digitalisierung in Unternehmen gewin- der Daten in den einzelnen Tools und somit eine zentrale und nt die zentralisierte Datenerhebung und Datenanalyse stetig an standardisierte Datenbank. Bedeutung. Der Begriff “Data Driven” wird immer mehr zur Leit- Durch Plattformstrategien wie der Google Marketing Platform kultur und somit fester Bestandteil der strategischen Unterneh- (GMP) und der Google Cloud Platform (GCP) werden die Ein- mensentwicklung. Ein grundlegendes Problem stellt jedoch die trittsbarrieren in der Nutzung von Rohdaten systematisch auf- Verwendung zahlreicher Tools und Quellsysteme im Unterneh- gelockert. Aufgrund des breiten Spektrums an Product Linkings, men dar. Daten befinden sich in Silos - es entstehen fragmen- APIs, integriertem Machine Learning und günstigem Hosting, tierte Nutzerprofile, welche sich schwer vereinheitlichen lassen. wird das Arbeiten mit Rohdaten auch für kleine bis mittelstän- Hinzu kommt die Aggregierung der Daten sowie toolspezifische dische Unternehmen deutlich einfacher und attraktiver. Mit Definitionen von Kennzahlen. Das Resultat ist eine Abnahme der Einführung des BigQuery Streaming Exports in Google An- der Datenqualität bei gleichzeitig steigenden Anforderungen alytics 4 (GA4) wurde erstmals auch Nutzern ohne Enterprise an die Analyse. Zusätzlich sind Unternehmen häufig mit Per- Lizenz (GA 360) die Nutzung von Google Analytics Rohdaten er- sonal- und Zeitkosten konfrontiert, sobald sie in fortgeschrit- möglicht. Durch das Hosting der Rohdaten innerhalb der Google tenere Analysen eintauchen wollen. Die Arbeit mit Rohdaten Cloud steht ein breites Spektrum an erweiterten Analyse- und erfordert versiertere Fähigkeiten als ein grafisches Reporting Modellierungsfunktionen durch weitere Produkte der GCP zur Interface abverlangt. Um weiterhin wettbewerbsfähig zu sein, Verfügung. Das Arbeiten mit Rohdaten in BigQuery birgt da- müssen Unternehmen datengetrieben arbeiten. Hierzu genügt her sehr viel Potenzial für die Marketing-Optimierung. App und es jedoch nicht, Daten aus allen Systemen zu zentralisieren und Web Daten können nicht nur mit Daten aus anderen Systemen zu analysieren. Häufig scheitert es nicht an der Zentralisierung verbunden werden, sondern mittels bereitgestellter Algorith- der Daten, sondern an der Gewinnung von Erkenntnissen aus men und komplexer Abfragen viel genauer und zielführender der Analyse für die Ableitung zukünftiger Maßnahmen. Dies analysiert werden, als es ein Interface von Google Analytics er- erfordert wiederum die Möglichkeit einer direkten Aktivierung möglichen könnte. 3
Rohdatenanalyse mit BigQuery 2. Rohdatenanalyse mit BigQuery Das Arbeiten mit Rohdaten in BigQuery bietet eine Vielzahl von welche Möglichkeiten für eine Daten-Infrastruktur bereitstehen Vorteilen gegenüber einer klassischen Data Warehouse-Lösung. und welche komplexen Use Cases sich unter anderem mit Rohdat- Warum sich BigQuery als Data Warehouse besonders gut eignet, en abbilden lassen, erfahren Sie in den folgenden Abschnitten. 2.1 Was ist eigentlich BigQuery? Google BigQuery ist ein serverloses, hoch skalierbares ohne eine Infrastruktur zu verwalten und ohne Indizes er- Data Warehouse, das mit einer integrierten Abfrage-En- stellen oder neu aufbauen zu müssen. BigQuery ist Be- gine ausgestattet ist. Die Abfrage-Engine ist in der Lage, standteil der Google Cloud Platform (GCP) und verfügt SQL-Abfragen auf Terabytes von Daten in wenigen Sekun- dadurch über ein ganzes Ökosystem an komplementären den und Petabytes in nur wenigen Minuten auszuführen. Diensten zur Weiterverarbeitung und Analyse der Rohdaten. Diese Leistung kann dabei in Anspruch genommen werden, 2.2 Eignung von BigQuery als Data Warehouse Der grundlegende Gedanke bei dem Aufbau oder Umzug und Rechenkapazität wird dadurch je nach benötigter Daten- in ein cloudbasiertes Data Warehous, wie BigQuery, ist die menge automatisch festgelegt. Als integrativer Bestandteil der Trennung von Storage und Compute, wodurch sich beide Google Cloud Platform (GCP) bringt die Nutzung von BigQuery Teile den Anforderungen entsprechend skalieren und jedoch eine Vielzahl weiterer Vorteile mit sich: kostengünstig betreiben lassen. Die erforderliche Speicher- 4
Rohdatenanalyse mit BigQuery Flexible Datenanbindung Der BigQuery Connector ermöglicht programmatischen Lese-/Schreibzugriff auf BigQuery. Dies ist eine ideale Methode, um in BigQuery gespeicherte Daten zu verarbeiten. Der Connector ist eine Bibliothek, mit der Spark- und Hadoop-Anwendungen Daten aus BigQuery verarbeiten und Daten mithilfe ihrer nativen Terminologie in BigQuery schreiben können. Hinzu kommt die vollständige Unterstützung von Standard und Legacy SQL einschließlich der Unterstützung von Arrays und komplexen Joins. Insbesondere die Unterstützung für Arrays macht es möglich, hierarchische Daten (z. B. JSON-Datensätze) in BigQuery zu speichern, ohne dass die verschachtelten und sich wiederholenden Felder reduziert werden müssen. Zudem bieten viele Produkte aus dem Google Universum als auch Third Party-Anbieter mittlerweile BigQuery Linkings und Connectoren an, wodurch eine einfache Anbindung der Daten möglich ist. Flexible Preismodelle Durch die bereits beschriebene Trennung von Storage und Compute bedarf es zur Nutzung von BigQuery keiner Bereitstellung einzelner Instanzen oder virtueller Maschinen. BigQuery weißt Rechenressourcen automatisch nach Bedarf zu. Die Computing-Kapazität lässt sich ebenfalls in Form von Slots (virtueller CPUs) reservieren. Darüber hinaus bietet BigQuery kostenlose Vorgänge und eine kostenlose Nutzungsvariante. Die Preisstruktur von BigQuery spiegelt diese Flexibilität in ihren zwei Hauptkomponenten wider: Analysepreise Die Kosten für die Verarbeitung von Abfragen. Dazu gehören SQL-Abfragen, benutzerdefinierte Funktionen, Skripts sowie Anweisungen für bestimmte Datenbearbeitungssprachen (DML) und Datendefinitionssprachen zum Scannen von Tabellen. Speicherpreise Kosten für das Speichern von Daten in BigQuery. Bei BigQuery fallen für bestimmte Vorgänge wie das Streamen von Insert-Anweisungen und die Nutzung der BigQuery Storage API Kosten an. Real (Near-)Time Funktionen BigQuery bietet Realtime Data Streaming Funktionen an, die es erlauben, Daten innerhalb weniger Sekunden oder Minuten in BigQuery weiterzuverarbeiten. Mit Google Analytics 4 steht nun auch Basis-Nutzern die Möglichkeit eines Realtime Exports der Daten über den BigQuery Connector zur Verfügung. Service Level Agreement (SLA) Während der Laufzeit des geltenden Lizenzvertrags für Google BigQuery ist der Service betriebsbereit und für den Kunden verfügbar, wie im aktuellen SLA festgelegt. Weitere Informationen über das SLA finden Sie sich in der offiziellen Dokumentation von Google. Machine Learning Bisher war BigQuery darauf beschränkt, lediglich lineare Modelle für maschinelles Lernen zu erstellen und auszuführen. Seit Ende letzten Jahres wurden die Funktionen um die nichtlinearen Modelltypen Boosted Trees für XGBoost, Deep Neural Networks (DNNs) für TensorFlow und AutoML Tables erweitert. Die mit BigQuery trainierten Modelle lassen sich zudem exportieren, um sie für Vorhersagen in der Google Cloud Vertex AI oder in vergleichbaren Umgebungen zu nutzen. 5
Rohdatenanalyse mit BigQuery Datenverwaltung und -sicherheit BigQuery ist so entwickelt, dass sich Nutzer darauf konzentrieren können, die Daten zu analysieren und Erkenntnisse zu gewinnen, ohne sich dabei grundlegende Gedanken um die technische Infrastruktur machen zu müssen, da der Speicher vollständig von dem Dienst verwaltet wird. Die Tatsache, dass grundlegend keine aufwändige Infrastruktur für das Datenmanagement eingerichtet werden muss, führt zu weniger Problemen in Bezug auf Sicherheit und Stabilität der Daten-Pipelines. Die Daten in BigQuery werden automatisch verschlüsselt, sowohl im Ruhezustand als auch bei der Übertragung. BigQuery kümmert sich um die Sicherheitsaspekte bei der Unterstützung mandantenfähiger Abfragen und der Isolierung zwischen Jobs. Datensätze können mit Google Cloud Identity and Access Management (IAM) freigegeben werden. Ebenso ist es möglich, die Datensätze und deren Tabellen und Ansichten so zu organisieren, dass sie verschiedenen Sicherheitsanforderungen entsprechen. In anderen Systemen nimmt die Bereitstellung der Infrastruktur für Zuverlässigkeit, Elastizität, Sicherheit und Leistung oft viel Zeit in Anspruch. Da sich diese administrativen Aufgaben mit der Nutzung von BigQuery minimieren lassen, bleibt mehr Zeit für die tatsächliche Analyse der Daten sowie der Gewinnung von Erkenntnissen. 2.3 Arbeiten mit Rohdaten in BigQuery Die traditionelle Art, mit einem Data Warehouse zu arbe- Die Daten-Pipeline, die in der Regel über einen Connector mit iten, beginnt mit einem ETL-Prozess (Extrahieren, Trans- Apache Beam oder Apache Spark geschrieben wird, extrahiert formieren und Laden), bei dem Rohdaten aus ihrem Quell- die erforderlichen Bits aus den Rohdaten (entweder Stream- system extrahiert, transformiert und dann in das Data ing-Daten oder Batch-Dateien), transformiert die extrahierten Warehouse geladen werden. BigQuery verfügt als cloud Daten, um alle erforderlichen Bereinigungen oder Aggrega- basierte Data Warehouse-Lösung über ein natives, hocheffi- tionen durchzuführen, und lädt sie dann in BigQuery. Das fol- zientes, spaltenförmiges Speicherformat, welches den klas- gende Schaubild veranschaulicht eine klassische ETL-Pipeline sischen ETL-Prozess zu einer attraktiven Methodik macht. mit der Nutzung von Google Cloud Services und BigQuery als Data Warehouse. 6
Rohdatenanalyse mit BigQuery 1. Der Connector lädt die Batch-Daten vor oder während der Jobausführung in einen Cloud Storage-Bucket. Nachdem der Job erfolgreich abgeschlossen wurde, werden die Daten aus dem Cloud Storage gelöscht. Der Storage dient im ETL Prozess als einheitlicher Objekt-Speicher für Batch-Dateien diverser Quellsysteme. 2. Der Dienst Cloud Pub/Sub fungiert als ansynchrone Messaging-Middleware von Realtime Data Streams. Dieser stellt Ressourcen für die Aufnahme, Verarbeitung und Analyse schwankender Echtzeit Datenmengen bereit und ermöglicht in Verbindung mit Cloud Dataflow und BigQuery eine Analyse und Auswertung der Daten in Echtzeit. 3. Die Batch- und Stream-Pipeline werden in Cloud Dataflow zusammengeführt. Cloud Dataflow ermöglicht Nutzern häufig verwendete Quelle-Ziel-Muster (source target patterns) mit Open Source-Vorlagen einfach einzurichten. 4. Anschließend werden die transformierten Daten über Cloud Dataflow in BigQuery geladen und stehen zur Analyse bereit. Auch wenn der Aufbau einer ETL-Pipeline mittels Apache Beam sind. Diese Fähigkeit wird als federated querying bezeichnet. oder Apache Spark gängig ist, ist es dennoch möglich, eine Daten- Daten lassen sich so mithilfe von SQL-Abfragen gegen im Google Pipeline auch direkt in BigQuery zu integrieren. Da BigQuery Cloud Storage gespeicherte Daten extrahieren und transformie- die Berechnung und Speicherung trennt, ist es möglich, BigQ- ren, um dann die Ergebnisse in einer nativen BigQuery-Tabelle uery-SQL-Abfragen gegen CSV- (oder JSON- und Avro-) Dateien zu initialisieren. Das folgende Beispiel beschreibt einen in der auszuführen, die in einem Google Cloud Storage gespeichert Praxis gängigen EL-Prozess von E-Commerce Shop-Daten. Über einen Google Cloud Storage lassen sich beispielsweise wenn man so will. Das anschließende Laden der Daten in den tagesaktuelle Shopdaten gegen einen Cloud Storage abfragen nativen Speicher von BigQuery bietet dabei die effizienteste und in BigQuery in Form einer Tabelle analysieren. Eine ande- Abfrageleistung. re Möglichkeit stellt das BigQuery Realtime Transmitting oder auch BigQuery Data Streaming dar. Hierbei können Daten aus Neben dem Aufbau einer klassischen Daten-Pipeline bietet einer externen Datenquelle transformiert und direkt an BigQ- BigQuery von Haus aus jedoch noch ein breiteres Spektrum uery geschickt werden (bspw. durch ein Python Script). an verfügbaren Services, die das Arbeiten mit Rohdaten in der Google Cloud attraktiver gestalten. Das folgende, vereinfachte Wenn keine Transformation erforderlich ist, kann BigQuery Schaubild, gibt einen Überblick über das Potenzial in der Nutzu- Standardformate wie CSV, JSON oder Avro direkt in seinen na- ng von BigQuery als zentrales Data Warehouse im digitalen tiven Speicher einlesen - ein EL-Workflow (Extract and Load), Ökosystem. 7
Rohdatenanalyse mit BigQuery Die direkte Konnektivität zu Produkten der Google Cloud Looker, Power BI und Google Data Studio verwendet werden, oder der Google Marketing Platform als auch des BigQuery um aussagekräftige Analysen, Visualisierungen und Berichte Data Transfer Service, wodurch sich Data Streams zu weiteren über die in BigQuery enthaltenen Daten zu erstellen. Großes Google Produkten (Bsp. YouTube, Google Play Store etc.) oder Potenzial liegt ebenfalls in der Aktivierung der Rohdaten. Data Warehouse Systemen (Bsp. AWS) nutzen lassen, ergeben Wie schon erwähnt, bietet BigQuery eine direkte Konnektivi- sich nahezu unbegrenzte Möglichkeiten in der Anreicherung tät zu weiteren Services der Google Cloud Platform an. Somit und Weiterverarbeitung der Rohdaten. Zusätzlich können lassen sich die Daten durch integriertes Machine Learning eine Vielzahl von Business Intelligence (BI)-Tools wie Tableau, beispielsweise für Vorhersagen und Personalisierung einsetzen. 2.4 Advanced Analytics mit BigQuery (Use Cases) Dass sich BigQuery durch einen hohen Grad an Konnektivität wurde bereits umfassend dargestellt. Um ein besseres Ver- sowie Komplementarität zu einer Vielzahl von Produkten und ständnis für die praktische Umsetzung zu bekommen, werden Services auszeichnet und sich somit besonders gut für die Weiter- im Folgenden drei Use Cases aus der Praxis vorgestellt. verarbeitung von Rohdaten und komplexere Analysen eignet, 8
Rohdatenanalyse mit BigQuery 2.4.1 Recommendation Engines Recommendation Engines (RE) stellen die Technologie hint- Bedürfnissen entsprechen, indem Sie bereits gekaufte Produk- er Vorschlagsfunktionen von E-Commerce Websites dar. te ergänzen oder ähnliche Kaufprofile anderer Nutzer vorschla- Eine Recommendation Engine verbessert die User Experi- gen. ence, indem sie den Nutzern relevante Artikel oder Inhalte Durch die Nutzung von BigQuery in Verbindung mit weiteren zur richtigen Zeit und auf der richtigen Seite anbietet. Ange- GCP Services lässt sich ohne großen technischen Aufwand in sichts der fortschreitenden Verlagerung der Customer Jour- wenigen Schritten eine Recommendation Engine für einen On- ney, insbesondere im Einzelhandel, ist die Gewährleistung lineshop einrichten. Die Einrichtung einer Recommendation En- eines hochgradig personalisierten Einkaufserlebnisses für gine mit Hilfe von GA4, BigQuery und der Recommendations AI Online-Nutzer von entscheidender Bedeutung für die weit- (Reco AI), als Google Cloud Service, wird in diesem Schaubild ere Kundenbindung. Recommendation Engines helfen Kund- veranschaulicht. en dabei, Produkte zu entdecken, die ihren Vorstellungen und 1. Zuerst werden die Produktdaten in Form eines Produktkataloges in die Reco AI eingelesen, damit diese später als Datengrundlage für dynamische Empfehlungen verwendet werden können. 2. Über den auf der Website implementierten GTM-Container werden Produkt-Interaktionen des Nutzers erfasst und direkt an GA4 übermittelt. Dabei wird das im dataLayer ausgesteuerte Ecommerce-Object zusätzlich über ein spezielles Tag im GTM an die Reco AI übermittelt. 3. Die Prediction API wählt anhand der vorgenommenen Einstellungen in der Reco AI (Auswahl des Empfehlungsmodells, Optimierungsziel etc.) und der Datengrundlage des spezifischen Nutzers Produktempfehlungen aus dem Produktkatalog aus und überliefert das Ergebnis an den Google Tag Manager. 4. Über den Google Tag Manager werden die Daten nun in den auf der Seiten integrierten Container ausgeliefert und dem Nutzer während seiner Sitzung dynamisch anhand aktueller Informationen angezeigt. 9
Rohdatenanalyse mit BigQuery 2.4.2 Real Time Marketing Attribution Bevor es zum Kauf (Conversion) kommt, bewegt sich der Marketingkanälen (Cross-Channel) zu verteilen. Leider findet Kunde in den meisten Fällen über mehrere Marketing- die Optimierung innerhalb der Marketingkanäle (Intra-Channel) kanäle hinweg. Marketingaktivitäten sollten daher auf Grun- nicht Kanalübergreifend (Cross-Channel) statt. Die Optimierung dlage der ganzen Customer Journey betrachten werden, innerhalb einzelner Marketingkanäle findet deshalb nicht auf um dessen Effektivität ganzheitlich beurteilen zu kön- der gleichen Datengrundlage statt, was zu Fehlentscheidungen nen. Diese Erkenntnisse können dann genutzt werden, führt. Realtime Marketing Attribution kann dabei genau dieses um das Marketing-Budget besser zwischen den einzelnen Problem lösen. Mit GA4 und dem BigQuery Realtime Export steht erst- Dieser Wert wird wiederum an alle Marketing Tools übergeben mals ein praxistauglicher Ansatz für eine ganzheitliche und kann dort innerhalb der einzelnen Tools (Intra-Channel) für Bewertung der Marketing Kanäle zur Verfügung. Hier- operative Optimierungen genutzt werden. bei wird bei jedem Kaufabschluss der Conversion Value Ein detaillierter Einblick in die technische Umsetzung wird im basierend auf einem Attributionsmodell anhand der ge- exklusiven mohrstade Whitepaper Realtime Marketing Attribu- samten Customer Journey (Cross-Channel) berechnet. tion vorgestellt. 10
Rohdatenanalyse mit BigQuery 2.4.3 Google Ads Automatisierung (Bsp. Dynamische Sitelinks) Mithilfe des BigQuery Exports in GA4 lassen sich diverse Abläufe Anzeigen. Hierbei soll das verkaufsstärkste Produkt der letzten für Google Ads automatisieren. Ein praxistaugliches Beispiel 120 Tage mit Preis und passender Verlinkung dynamisch einge- wäre die automatische Anpassung von Sitelinks in Google Ads fügt werden. Verdeutlicht wird dies im folgenden Schaubild: Über das GA4 BQ Linking werden die Google Analytics Dat- der Daten ebenfalls dynamisch auf tagesaktueller Basis in den en zu BigQuery in einem Dataset exportiert. In BigQuery Anzeigen angepasst. Dieser Automatisierungsprozess mithil- werden die Daten anschließend mit einem einfachen SQL fe von Rohdaten aus BigQuery kann jedoch für viele weitere Statement transformiert und in Form einer Tabelle bere- Cases bspw. Keywords oder Kampagnenautomatisierung ver- itgestellt, damit sie in Google Ads verwendet werden kön- wendet werden. Ein detaillierter Einblick in die technische Ein- nen. Die Tabelle wird dabei täglich durch einen sched- richtung und Umsetzung findet sich in unserem zugehörigen uled query automatisch aktualisiert. In Google Ads wird MarTechSnack #8 | Google Ads Automatisierung mit GA4 BigQ- anschließend mithilfe von Ads Skript der Sitelink auf Basis uery Daten. 11
Empfehlung 3. Empfehlung Das Arbeiten mit Rohdaten mit BigQuery birgt sehr viel Mar- Es sollte sich also nicht die Frage gestellt werden warum man keting Optimierungspotenzial. App und Web Daten kön- langfristig auf eine Nutzung der Rohdatenanalyse durch BigQ- nen nicht nur mit Daten aus anderen Systemen verbunden uery zurückgreifen sollte, sondern warum nicht. Der Funktion- werden, sondern mittels bereitgestellter Algorithmen und sumfang und die daraus resultierenden Möglichkeiten für Opti- komplexer Abfragen viel genauer und zielführender anal- mierungspotenziale steigen rasant. Jedes Unternehmen sollte ysiert werden, als das Google Analytics Interface ermöglicht. deshalb jetzt anfangen, sich mit dem Thema Rohdaten ausein- Zudem bietet das Arbeiten innerhalb der Cloud Umgebung andersetzen, um intern eine Expertise aufzubauen. viele Möglichkeiten, die aus der Analyse gewonnene Ergeb- nisse und Erkenntnisse anderen Tools zur Verfügung zu stellen. 12
Über mohrstade Unternehmen mohrstade ist eine Beratung für Marketing Technologie in München und Hamburg. mohrstade ist spezialisiert auf Projekte in den Bereichen Data Collection, Data Management, Analytics, Marketing Activation und Data Visualization. Diese Services bietet mohrstade in zertifizierten Partnerschaften mit Marketing Software Herstellern an. Managing Partner Patrick Mohr Marcus Stade Co-Founder & Managing Partner Co-Founder & Head of Analytics Patrick ist Gründer und Geschäftführer von mohrstade. Marcus ist Gründer von mohrstade und Head of Analytics. Bereits während seines Studiums für BWL, Finance Darüber hinaus ist er Co-Organisator von Analytics Pioneers und Information (MSc) sammelte er Erfahrungen im - der größten Analytics Community im DACH-Raum. Zuvor Management Consulting. Später arbeitet er als SEA hat er im Bereich Web-Development und Online-Marketing Manager, Data Scientist und Analytics Consultant bei Rocket gearbeitet. Auf seinem Blog www.marcusstade.de schreibt Internet, Group M und UDG. 2017 baute er schließlich den er regelmäßig zu Themen der Digitalen Analyse. Münchner Standort von Trakken auf. Parallel arbeitet er als Dozent an Universitäten. Darüber hinaus ist er Co- Organisator von Analytics Pioneers - der größten Analytics Community im DACH-Raum. patrick@mohrstade.de marcus@mohrstade.de 13
Mohr & Stade GmbH Schillerstraße 14 80336 München www.mohrstade.de
Sie können auch lesen