Storage Furthermore: Geo Redundancy - Ceph - Rook - Project Delivery - The Cloud Report
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
KOMPETENZ FÜR IHRE SICHERHEIT – SEIT 1966 Die Dr. Hörtkorn Unternehmensgruppe zählt zu den größten inhabergeführten Versicherungsmaklern in Deutschland. Mit rund 200 Mitarbeitern sind wir Ihr kompetenter Partner rund um die Bereiche Unternehmensversicherung und Vorsorgemanagement. Weitere Infos auf www.dr-hoertkorn.de oder gleich Termin unter 07131/949-0 vereinbaren. DR. FRIEDRICH E. HÖRTKORN GMBH | Oststraße 38 - 44 | 74072 Heilbronn | Telefon 07131/949-0 | info@dr-hoertkorn.de BERLIN CHEMNITZ HEILBRONN KARLSRUHE MANNHEIM MÜNCHEN NÜRNBERG PHILADELPHIA (USA) STUTTGART
EDITORIAL
Storing Data
Cloud verspricht den Eintritt in die digitale, virtuelle Welt. Die alten Server-
schränke werden aufgelöst, die Daten transferiert und der Nutzer arbeitet
mit dem Laptop über´s Internet, wo er oder sie möchte. Cloud-Provider ver-
sprechen, dass die Daten und Services rund um die Uhr zur Verfügung stehen,
und garantieren auch, dass sie auf keinen Fall verloren gehen.
In der Cloud hängen die gespeicherten Daten aber natürlich nicht in der Luft,
sie werden weiterhin auf Festplatten in Serverschränken in Rechenzentren ge-
speichert, die nur nicht mehr notwendig in der Nähe der Datennutzer stehen
müssen. In diesen Rechenzentren sind dann auch häufig die Daten mehrerer
Abteilungen, sogar mehrerer Firmen gesammelt. In Public Clouds sind sogar
die Daten von unzähligen privaten und kommerziellen Kunden nebeneinander
gespeichert. Und dennoch wird eine Datensicherheit garantiert und realisiert,
dass tatsächlich nur berechtigte Nutzer einen entsprechenden Zugriff haben.
Dies erfordert eine besondere Infrastruktur in diesen Rechenzentren, aber auch
eine besondere Technik und Software. In dieser Ausgabe liegt der Schwerpunkt
auf genau dieser Technik und Software. Wir stellen dafür verschiedenen Sto-
rage-Lösungen (Ceph, Rook) und auch Storage-Anbieter (NetApp) vor, die die
oben genannten Herausforderungen zu lösen versuchen.
Ziel der Lösungen und Angebote ist es, vorhandenen Speicherplatz optimal
zu nutzen. Für Firmen, die eine Private Cloud Lösung anstreben, kann mit den
richtigen Tools eine auf den Bedarf angepasste Einstiegsinvestition errechnet
werden. Denn wer vorhandene Speicherkapazitäten optimal nutzen kann,
muss nicht in zusätzliche Kapazitäten investieren.
Über Storage hinausgehend beginnen wir mit der Reihe Project Delivery. In
dieser behandeln wir Themen, die direkt mit der Cloudifizierung einhergehen:
Zusammenarbeitsmodelle, Agiles Arbeiten, angepasste Prozesse, Projekt-
abwicklung im Sinne des Kunden, ohne dabei die beteiligten DevOps Engi-
neers aus den Augen zu verlieren, … Wer sich auf Cloud einlässt, betritt damit
nicht nur eine neue technische Welt. Und wir möchten helfen, dass Sie diese
Schritte nicht blind gehen, sondern bewusst, geplant und langfristig digital.
Natürlich haben wir weitere Cloud-Angebote ausführlich getestet und aus-
gewertet. Die Ergebnisse der Tests finden Sie, wie immer, am Ende des Heftes.
Ich wünsche Ihnen, auch im Namen der Cloudibility, ein erfolgreiches, cloudi-
ges, nichtsdestotrotz sonniges Jahr 2019! Viel Spaß beim Lesen!
Ihre Friederike Zelke
Editor in Chief
the cloud report 01—2019 1the cloud report
IMPRESSUM
Herausgeber Cloudibility UG, Kurfürstendamm 21, 10719 Berlin
Geschäftsführung Michael Dombek und Karsten Samaschke
Publikationsleitung / Chefredaktion Friederike Zelke
Redaktion Julia Hahn, Emelie Gustafsson
Onlineredaktion Stefan Klose
Vertrieb Linda Kräter
Anzeigen Julia Hahn
Artdirektion und Gestaltung Anna Bakalovic
Herstellung Regina Metz, Andreas Merkert
Kontakt zur Redaktion presse@cloudibility.io
Kontakt zu Anzeigen und Vertrieb marketing@cloudibility.io / sales@cloudibility.io /
vertrieb@cloudibility.io
Copyright © Cloudibility UG
the cloud report erscheint bei der Cloudibility UG
Kurfürstendamm 21, 10719 Berlin
Geschäftsführung Michael Dombek und Karsten Samaschke
Telefon: +49 30 88 70 61 718 , E-Mail: info@cloudibility.io
the-report.cloud
ISSN 2626-1200
The Cloud Report erscheint vierteljährlich jeweils Anfang Januar, April, Juli, Oktober. The Cloud Report gibt
es in zwei Versionen, zum einen die Online-Ausgabe, die über die Homepage online oder als Download er-
reichbar ist, zum anderen die gedruckte Ausgabe zum Preis von 20 Euro im Jahr abonnierbar über das perso-
nalisierte Kundenportal, in dem ein persönlicher Account eingerichtet wird. Bitte geben Sie bei Ihrer Regist-
rierung an, in welcher Ausführung Sie den Report beziehen möchten. Das Abonnement ist jederzeit über den
persönlichen Zugang des Abonnenten kündbar, per Mail spätestens zwei Wochen vor Erscheinen der neuen
Ausgabe über die E-Mailadresse: vertrieb@cloudibility.io. Für das Abonnement erheben wir relevante per-
sönliche Kundendaten. Einzelne Ausgaben können auch ohne Abonnement käuflich erworben werden zum
Preis von: 5 Euro, auch in diesem Fall werden relevante persönliche Daten zur Erfüllung des Kaufvertrages
erhoben. Weitere Informationen hierzu finden Sie unter: http://the-report.cloud/privacy-policy
2 Impressumthe cloud report
INHALT
EDITORIAL
Storing Data 1
KOMMENTAR
Around the globe
and into trouble 4
FOKUS
Stay ahead of the pack 6
Interview mit
Kim-Norman Sahm über Ceph 11
Rook more than Ceph 14
Ceph Day Berlin 2018 19
PROJECT DELIVERY
Mind- und Skill-Set
für Digital Leadership 20
Time
KONFERENZBERICHTE
Scope
Cost
My first OpenStack Summit 22 Time
Cloud-Welt in Mannheim 24 Scope
Cost
TESTS
Wir testen Clouds
Traditional 26
Project Leadership Digital Project Leadership
And the Winner is … 27
Auswertung der technischen Tests 28
the cloud report 01—2019 3KOMMENTAR
Around the globe
and into trouble
As simple as it is to produce, consume, manipulate, and And that makes things complicated, as most organiza-
store data and applications in cloud environments, you tions and individuals are not aware of the consequences
need to ensure their availability, backup, and recovery. and implications of utilizing geo-redundancy. Such con-
Surely, this can be handled by built-in mechanisms of the sequences could be: Authorities of countries may gain
respective environments such as multi-location storage, access to confident or user-specific data. Privacy regula-
backup, and restore - but what is about data safety, data tions would not be fulfilled anymore, data security might
integrity and privacy? be hampered, business models and customer‘s trust would
vanish, if those consequences would not have been taken
In modern cloud environments data can easily be stored into account, mitigated, legally checked and communicat-
and backed up in multiple locations around the globe. ed properly.
These approaches provide a lot of advantages: Protection
from local disasters such as earthquakes or fires, faster Is geo-redundancy a no-go then?
availability of data to clients and customers in different re-
gions of the world, decentralized and parallel processing of Of course not, but a proper planning process needs to be
data, better utilization of resources, etc. And, it can be ini- established and executed, involving legal and data com-
tiated easily without having to program and to learn about pliance teams and clarifying these aspects with the same
cloud technologies. priority as solving technical issues. Actually, a process like
this needs to be executed before, while and after solving
Brave new world, problems solved, technical issues, executing 3-2-1 backup strategies (3 cop-
cloud technology for the win! ies of data, 2 storage medias, at least 1 offsite) or processing
any data in a cloud environment. This ongoing and perma-
But, unfortunately, things are not that simple and easy, at nent process is even more required when trying to utilize
least from a non-technical point of view, as cloud vendors multi-cloud-environments for better data isolation or to
have to apply to legal regulations at the location of the data harness advantages of specific cloud environments. And
centers. Which basically means: Legal regulations, such as it needs to remain in place, considering the ever-changing
data privacy laws and rights of local authorities apply. nature of laws and regulations.
4 KommentarSo, when trying to secure data by storing and processing it or of simply implementing and setting up of technical ap-
in cloud environments, it is not enough to just press a but- proaches.
ton or execute a command. It is not enough just to think of
a backup strategy. It is not enough to solve a technical issue Cloud is complex. It often encapsulates a technical com-
or to provide faster transport of data to users. It may even plexity, making approaches as geo-redundancy and da-
be dangerous if not critical to a business to simply store ta-replication as easy as clicking on a button. But it can and
data in cloud environments or to utilize awesome technical it will not abstract from legal problems and data-security
advantages such as Amazon S3, Azure Storage, blob- and aspects. Moving and executing in cloud environments,
object stores, etc. It is not enough to hope to comply with your responsibility does not decrease, it actually increases
GDPR- or other privacy regulations – you actually need to and therefore needs to be understood, accepted and man-
comply with them, everywhere and anytime. aged continuously and as part of a process.
When executing businesses in cloud environments, gover- As with all cloud solutions and approaches, you remain in
nance and legal need to be involved. They need to be part command and you remain responsible for everything your
of a - THE - process. Which again should make you think organization creates, operates and stores.
of how to set up and execute processes and ensure sus-
tainability in your cloud strategy. DevOps and other mod- Literally everywhere on the planet.
ern collaboration approaches are required to sensitize for
problems and consequences of just „lifting and shifting“ Karsten Samaschke
into cloud environments (which is way too often performed Co-Founder und CEO der Cloudibility
Kurfürstendamm 21, 10719 Berlin
by setting up VMs, firewalls and infrastructures, bringing
karsten@cloudibility.io
in applications and not realizing the implications of mov-
ing from self-owned and self-operated data centers into
vendor-owned and vendor-operated cloud environments)
the cloud report 01—2019 5FOKUS Stay ahead of the pack and capture the full potential of your cloud business In today’s IT ecosystem, the cloud has become synonymous with flexibility and efficiency. Though, all that glitters is not gold since applications with fixed usage patterns often continue to be deployed on-premises. This leads to hybrid cloud environments creating va- rious data management challenges. This article describes available solutions to tackle risks such as scattered data silos, vendor lock-ins & lack of control scenarios. The famous quote of Henry Ford “If you always do what ing technologies, there is no doubt, that the amount of you’ve always done, you’ll always get what you’ve always data is further growing. According to the IBM Marketing got” describes pretty accurately what happens once you Cloud report, “10 Key Marketing Trends For 2017,” 90 % of stop challenging current situations to improve them for the data in the world today has been created in the last two the future: you become rigid and restricted in your think- years from which the majority is unstructured. To become ing with the result of being unable to adapt to new situa- an understanding of this, figure 1 illustrates the number of tions. In today’s business environment, data is considered transactions executed every 60 seconds for a variety of as the base to help organizations succeed in their digital data related products within the ecosystem of the internet. transformation by deriving valuable information leading Estimates suggest that by 2020 about 1.7 MB of new eventually to a competitive advantage. The value of data data will be created every second for every human on the has also been recognised by the Economist in May 2017, planet leading to 44 zettabytes of data (or 44 trillion giga- stating that data has replaced oil as the world’s most valu- bytes). The exploding volumes of data changes the nature able resource. Why is that? The use of smartphones and of competition in the corporate world. If an organization the internet have made data abundant, ubiquitous, and is able to collect and process data properly, the product far more valuable since nowadays almost any activity cre- scope can be improved based on specific customer needs ates a digital trace no matter if you are just taking a picture, which attracts more customers, generating even more data having a phone call or browsing through the internet. Also, and so on. The value of data can also be illustrated within with the development of new devices, sensors, and emerg- the Data-Information-Knowledge-Wisdom (DIKW) Pyra- 6 Fokus
https://www.beingguru.com/2018/09/what-happens-on-internet-in-60-seconds-in-2018/
Figure 1: 60 seconds in the internet
mid referring back to the initial quote (figure 2). Typically,
information is defined in terms of data, knowledge in terms
of information, and wisdom in terms of knowledge hence.
Data is considered as the initial base to gain wisdom. As a
result, the key to success in the digital era is to maximize
the value of data. That might mean improving the cus-
tomer experience, making information more accessible to
stakeholders, or identifying opportunities that lead to new
markets and new customers.
All that glitters is not gold
In addition to the described observation that the quantity
of data is growing exponentially further challenges can be
derived for the following three categories:
aa Distributed: Data is no longer located at one location
such as your local data centre. Data relevant for enter-
Figure 2: DIKW pyramid (by Longlivetheux) prises is distributed across multiple locations.
the cloud report 01—2019 7aa Diverse: Data is no longer available just in a structured and seamlessly moving data into and out of the cloud as
format. As already mentioned before, most of the data needed. The question regarding the data movement be-
being created is considered as unstructured data such comes even more crucial with regards to potential vendor
as images, audio-/video files, emails, web-pages, social lock-ins. To address those challenges, organizations must
media messages etc. invest in cloud services while developing new data services
aa Dynamic: Given the described increase in quantity, data that are tailored to a hybrid cloud environment. Deploying
sets grow quickly and can change over time. Hence, it data services across a hybrid cloud can help organizations
is difficult to keep track of the state where the data is to respond faster and stay ahead of the competition. How-
located and where it came from. ever, all the data in the world won’t do your organization
any good if the people who need it can’t access it. Employ-
According to the IDC study: “Become a Data Thriver: Re- ees at every level, not just executive teams, must be able
alize Data-Driven Digital Transformation (2007)”, leading to make data-driven decisions. To support organizations
digital organizations have discovered that the cloud, with in their digital transformation process by creating new and
its power to deliver agility and flexibility has the ability to innovative business opportunities fuelled by distributed,
tackle the described challenges and is indispensable for divers and dynamic data sets, organizations often find their
achieving their digital transformation. Cloud computing is most valuable data trapped in silos, hampered by com-
therefore aiding the business to stay flexible and efficient plexity and too costly to harness (figure 3). To undermine
in an ever-changing environment. It enables customers this statement, industry research from RightScale identi-
to deploy services or run applications with varying usage fied, that organizations worldwide are wasting, on average
needs that allows you to pay what you need, when you a staggering 35 % of their cloud investment. Or, to put it in
need it. This realization leads most organizations to hybrid monetary terms, globally over $10 billion is being misspent
IT environments, in which data is generated and stored in the provisioning of cloud resources each year.
across a combination of on-premises, private cloud, and
public cloud resources. The existence of a hybrid IT envi-
Every cloud has a silver lining
ronment is probably the result of an organic growth and
might be more tactical than strategical. Different lines of The ultimate goal of the described problem should be, that
business in the organisation are likely using whatever tools business data needs to be shared, protected and integrat-
they need to get their jobs done without involving the IT ed at corporate level, regardless where the data is locat-
department. This approach creates numerous challeng- ed. Although organizations can outsource infrastructure
es for IT teams, such as knowing what data is where, pro- and applications to the cloud, they can never outsource
tecting and integrating data, securing data and ensuring the responsibility they have for their business data. Or-
compliance, figuring out how to optimize data placement, ganizations have spent years controlling and aligning the
Figure 3: isolated resources / data silos
Figure 4: NetApp Data Fabric
8 FokusFigure 5: multi-cloud use-case scenarios
appropriate levels of data performance, protection, and Cloud Storage
security in their data centre to support applications. Now, NetApp offers several services and solutions to address
as they seek to pull in a mix of public cloud resources for data protection and security needs, including:
infrastructure and apps, they need to maintain control aa Backup and restore services for SaaS services such
of their data in this new hybrid cloud. They need a single, Office365 and Salesforce
cohesive data environment, which is a vendor-agnostic aa Cloud-integrated backup for on-premises data
platform for on-premises and hybrid clouds to give them aa End-to-end protection services for hybrid clouds
control over their data. A cloud strategy is only as good as
the data management strategy that underpins it and if you NetApp Cloud Volumes Service offers consistent, reliable
can’t measure it, you can’t manage it. The starting point to storage and data management with multi-protocol sup-
establish an appropriate cloud strategy is to become an in- port for MS Azure, AWS and Google Cloud Platform, en-
sight of the data available for being able to control it. This abling existing file-based applications to be migrated at
implies that the data locations need to be identified and scale and new applications to consume data and extract
additional attributes concerning performance, capacity, value quickly (figure 5).
and availability it requires and what the storage costs are. Furthermore, it enables you to scale development ac-
After, the data can be integrated to cloud data services ex- tivities in AWS and Google Cloud Platform, including
tending the capabilities within the areas of: backup- and building out developer workspaces in seconds rather than
disaster recover management, DevOps, production work- hours, and feeding pipelines to build jobs in a fraction of
loads, cloud-based analytics etc. the time. Container-based workloads and microservices
can also achieve better resiliency with persistent storage
The following section describes a data management provided by Cloud Volumes Service.
solution by using NetApp’s Data Fabric as an example, Azure NetApp Files similarly enables you to scale de-
though there are a variety of vendors offering similar velopment and DevOps activities in Microsoft Azure all in
solution. (Editor’s note) a fully managed native Azure service. NetApp Cloud Vol-
umes ONTAP® services enable developers and IT opera-
NetApp’s Data Fabric (figure 4) empowers organizations to tors to use the same capabilities in the cloud as on-premis-
use data for being able to make intelligent decisions about es, allowing DevOps to easily span multiple environments.
how to optimize their business and get the most out of
their IT infrastructure. They provide essential data visibility Cloud Analytics
and insight, data access and control, and data protection Since IT infrastructures are growing more complex and
and security. With it, you can simplify the deployment of administrators are asked to do more with fewer resourc-
data services across cloud and on-premises environments es. While businesses depend on infrastructures that span
to accelerate digital transformation to gain the desired on-premises and cloud, administrators responsible for
competitive advantage.1 A short description for use-cases these infrastructures are left with a growing number of inad-
within the area of storage, analytics and data provision- equate tools that leads to poor customer satisfaction, out of
ing within a hybrid cloud environment is described below, control costs, and an inability to keep pace with innovation.
tackling the main issues described earlier. NetApp Cloud Insights is a simple to use SaaS-based
monitoring and optimization tool designed specifically for
cloud infrastructure and deployment technologies. It pro-
vides users with real-time data visualization of the topol-
ogy, availability, performance and utilization of their cloud
1 The products related to NetApp’s Data Fabric can be found at cloud.netapp.com. and on-premises resources (figure 6).
the cloud report 01—2019 9Figure 6: Cloud Insight performance dashboard
Cloud Data Services - Cloud Sync One of the biggest difficulties in moving data is the
Transferring data between disparate platforms and main- slow speed of data transfers. Data movers must move data
taining synchronisation can be challenging for IT. Moving between on-premises data centres, production cloud en-
from legacy systems to new technology, server consolida- vironments and cloud storage as efficiently as possible.
tion and cloud migration, all require large amounts of data NetApp Cloud Sync is designed to specifically address
to be moved between different domains, technologies and those issues, making use of parallel algorithms to deliver
data formats. Existing methods such as relying on simplis- speed, efficiency and data integrity. The objective is to pro-
tic copy tools or homegrown scripts that must be created, vide an easy to use cloud replication and synchronisation
managed and maintained can be unreliable or not robust service for transferring files between on-premises NFS or
enough and fail to address challenges such as: CIFS file shares, Amazon S3 object format, Azure Blob, IBM
aa Effectively and securely getting a dataset to the new Cloud Object Storage, or NetApp StorageGRID (figure 7).
target
aa Transforming data to the new format and structure
aa Timeframe and keeping it up to date
aa Cost of the process
aa Validating migrated data is consistent and complete
Erik Lau, Solutions Engineer
Erik has a love for technology and the ability to tie technical
concepts back to underlying business needs. He works
at NetApp as a Solutions Engineer helping customers
discovering technical solutions tackling demanding busi-
ness challenges within the field of Cloud-Computing and
Data-Science.
NetApp Deutschland GmbH
Harburger Schloßstrasse 26
21079 Hamburg
Figure 7: Integrate the cloud with your existing infrastructure
10 FokusINTERVIEW
Interview mit
Kim-Norman Sahm
über Ceph
Kim-Norman Sahm ist Head of Cloud Techno- wurde als die Lösung gesehen, Compute-Res-
logy bei der Cloudibility und als Experte in den sourcen effizienter zu nutzen. Der Storage-Be-
Bereichen OpenStack, Ceph und Kuberne- reich wandelte sich hin zu SDS-Lösungen (Soft-
tes unterwegs. Als typischer Ops-ler ist er im ware Defined Storage), welche eine Vielzahl
Thema Storage Zuhause und hat schon einige von Vorteilen mit sich bringen: Kosteneffizienz,
Ceph-Projekte umgesetzt. Speichermöglich- Flexibilität, Elastizität, … Software-Lösungen
keiten und -kapazitäten spielen im IT-Umfeld brechen die harten Grenzen der klassischen
schon immer eine große Rolle, mit dem Gang in Storage-Lösungen auf und ermöglichen ver-
die Cloud verändern sich diese Möglichkeiten teilte Systeme, Georedundanz und, zum Bei-
aber sehr, wie sie sich verändern und wie Ceph spiel mit Ceph, vermeiden sie Vendor Lock-in,
dabei eingebunden werden kann, sind wir in die- das heißt, das Storage-System ist nicht länger
sem Interview auf den Grund gegangen. von einem Hersteller abhängig. In der Cloud ist
Storage inzwischen ein Service, der Kunde will
Warum ist das Thema Storage wichtig? nur bezahlen, was er wirklich nutzt. Für den An-
Was ist besonders an Storage in der Cloud? bieter ergeben sich damit auch Vorteile, er kann
Was hat sich verändert? den Platz flexibel und somit effizient ausnutzen.
Storage war schon immer Thema, in der Lega-
cy-Welt gab es die Anforderungen, alle Infor-
mationen, die anfallen, zu speichern. Alle Apps
waren darauf angewiesen, persistenten Sto-
rage zur Verfügung zu haben. Generell wurde
mit Storage- und Compute-Ressourcen sehr
großzügig umgegangen. Selbst für kleinste An-
wendungen wurden häufig zu große Server an-
geschafft, die normalerweise zu 90 % ungenutzt
blieben. Dabei waren Systeme unflexibel und
in monolithische Storage-Blöcke eingeteilt. Es
gab nur wenige Storage-Hersteller und die An-
gebote waren oft sehr teuer.
Mit der Zeit entwickelte es sich in die Rich-
tung, Ressourcen effizienter zu nutzen, sowohl
Compute als auch Storage. Virtualisierung Kim-Norman Sahm
the cloud report 01—2019 11Figure 1: Ceph overview
Bezüglich Cloud Native Anwendungen hat logischen, hochverfügbaren Storage-Pool zur
sich auch die Mentalität dahingehend verändert, Verfügung, der dann eine Gesamtkapazität der
dass nur noch gespeichert wird, was gespeichert Summe aller Platten bereitstellt. Dies kann dann
werden muss, nicht mehr alles. Der größte Teil in mehrere logische Pools aufgeteilt werden, die
von Microservices sind beispielsweise stateless, den Anwendungen zur Verfügung gestellt wer-
es werden keine Daten mehr gespeichert. Somit den.
wird der Storage auch diesbezüglich effizient Ein großer Vorteil von Ceph ist, dass es Block-,
genutzt. Object- und File-Storage aus einem Backend
bereitstellen kann. Man ist nicht in der Situa-
Wie kommt hier Ceph ins Spiel? tion, für jeden Storage-Typ eine eigene Storage-
Ceph ist eine Software Defined Storage-Lö- Lösungen anschaffen zu müssen (Figure 1).
sung, entstanden aus der Doktorarbeit von
Sage Weil konnte sich Ceph erfolgreich auf Wie arbeitet Ceph?
dem damals noch dünn besiedelten Software Als das Ceph-Projekt gestarten wurde, be-
Defined Storage-Markt behaupten. Die Open schränkte sich das Angebot auf Block- und
Source-Lösung bietet ein hochverfügbares Sto- Object-Storage. Im Vergleich zu anderen Sto-
rage-Backend, welches auf jeder beliebigen X86 rage-Lösungen, die über Gateway- oder Pro-
Server-Hardware läuft. Vereinfacht ausgedrückt xy-Nodes den Client mit dem Storage-System
fasst Ceph alle physikalischen Festplatten im verbinden, führte Ceph von Anfang an eine “no
Cluster-Verbund zusammen und stellt diese als single point of failure” ein. Die Ceph-Architektur
bestand zunächst aus Ceph Monitor (Mon) und
Ceph OSD (Object Storage Daemon).
Mons stellen die Cluster-Logik bereit, es
müssen mindestens 3, maximal 11 Monitoren im
Cluster existieren, deren Anzahl wegen Quorum
immer ungerade sein muss. Die Aufgabe der
Mons ist es, den Cluster-State zu überwachen
und die hochverfügbare Verteilung der Objek-
„Ein großer Vorteil von Ceph te zu gewährleisten. Dafür halten die Mons die
CRUSH-Map, eine Art Lageplan der Objekte,
ist, dass es Block-, Object- vor. Die eigentlichen Nutzdaten werden auf
und File-Storage aus einem den OSD-Nodes gespeichert. Eine OSD stellt
immer genau eine physikalische Festplatte dar.
Backend bereitstellen kann. “ Wenn ein Client auf die Block-Storage-Daten
12 Interviewzugreifen möchte, wendet er sich zunächst
an einen der Monitor-Nodes und fordert die
„Mit seiner großen
CRUSH-Map an. Anhand dieser Map und dem Skalierbarkeit ermöglicht
Berechnungsalgorithmus CRUSH ist der Client
selbständig in der Lage zu berechnen, auf wel-
Ceph, mit einem
chen OSDs die Daten liegen, die er benötigt, kleinen Setup zu starten.“
und kontaktiert dann direkt die entsprechenden
OSD-Nodes (Figure 2).
Werden Daten geschrieben, verhält sich
das System analog. Um die Hochverfügbar-
keit zu gewährleisten, werden Objekte vom
Ceph-Cluster dreifach (Ceph Default Wert) penStack Swift (Object-Storage) anbietet.
O
repliziert. Ein Objekt wird geschrieben, es exis- Diese Entwicklung verhalf Ceph zu einem höhe-
tiert danach aber dreimal im Cluster. Das Repli- ren Marktanteil, da Ceph bis heute als das Stan-
zierungslevel ist anpassbar, man begeht dabei dard-Storage-Backend für OpenStack gilt. Um
aber den Spagat zwischen Hochverfügbarkeit die Dreifaltigkeit des Storage zu vollenden, führ-
und Kosteneffizienz. Die Besonderheit hierbei te Ceph mit CephFS ein Netzwerk-basiertes
ist, dass der Schreibvorgang dem Client erst Filesystem ein, dessen Client-Modul sich seit
bestätigt wird, wenn alle Replikas geschrieben Version 2.6 im Linux-Kernel befindet.
wurden. Dies stellt allerdings eine Schwierig-
keit beim Aufbau von Geoclustern dar, weil die Warum wird Ceph eingesetzt? Wofür ist es
Paket-Laufzeiten zu Problemen führen können. wichtig?
Deshalb gibt es keine Ceph-Geocluster. Das Aufgrund seiner Vielseitigkeit eignet sich Ceph
Ceph-Projekt arbeitet aktuell unter anderem an für viele Unternehmen. Mit seiner großen
asynchronen Schreibvorgängen, um Geocluster Skalierbarkeit ermöglicht Ceph, mit einem klei-
zu ermöglichen. nen Setup zu starten und dieses mit der steigen-
Einen großen Schritt vorwärts ging es für den Anfrage/Nutzung wachsen zu lassen. Ob als
das Ceph-Projekt, als die OpenStack-Com- reiner Object-Store für Backups und andere An-
munity auf Ceph aufmerksam wurde und sich wendungen, als Backend für Private Cloud-Lö-
dies hervorragend als Backend für OpenStack sungen auf Basis von OpenStack oder KVM
Cinder (Block-Storage) sowie als Ersatz für oder als NFS- Ersatz für Linux-Clients, ist Ceph
flexibel verwendbar. Durch die gute Integration
in Kubernetes wird auch der Einsatz von Ceph in
der Container-Welt realisierbar.
In den meisten Management-Runden ist
das Hauptargument für die Einführung von
Ceph der preisliche Vorteil gegenüber kom-
Figure 2: Ceph flow merziellen Closed Source Enterprise Sto-
rage-Lösungen. Günstige Server-Hardware und
Community-Software ermöglichen einen Start
mit geringen Capex-Aufwänden. Wem der Ein-
satz von Open Source-Software mit Communi-
Seite 12,13: http://docs.ceph.com/docs/master/architecture/
ty-Support schlaflose Nächte bereitet, der hat
die Möglichkeit über die Linux-Distributoren
kommerziellen Support zu erwerben.
Das Subscriptions-Modell ist dabei sehr dif-
ferenziert und sollte im Vorfeld gründlich ge-
prüft werden. Generell gilt, so vielseitig Ceph
ist, desto größer ist die Herausforderung im
täglichen Betrieb. Das Ops-Team muss ent-
sprechend fit sein.
Das Interview führte Friederike Zelke.
the cloud report 01—2019 13FOKUS
Rook more
than Ceph
Rook allows you to run Ceph and other storage backends in Kubernetes with ease.
Consumption of storage, especially block and filesystem storage, can be consumed
through Kubernetes native ways. This allows users of a Kubernetes cluster to consu-
me storage easily as in “any” other standard Kubernetes cluster out there. Allowing
users to “switch” between any Kubernetes offering to run their containerized appli-
cations. Looking at the storage backends such as Minio and CockroachDB, this can
also potentially reduce costs for you if you use Rook to simply run the CockroachDB
yourself instead of through your cloud provider.
Data and Persistence Storage: What is the right one?
Aren’t we all loving the comfort of the cloud? Simple back-
up and also sharing of pictures as an example. Ignoring Block storage
privacy concerns for now when using a company for that, Will give you block devices on which you can format as
instead of e.g., self hosting, which would be a whole oth- you need, just like a “normal” disk attached to your sys-
er topic. I love being able to take pictures of my cats, the tem. Block storage is used for applications, such as MySQL,
landscape, and my food and sharing the pictures. Sharing a PostgreSQL, and more, which need the “raw” performance
picture with the world or just your family is only a few clicks of block devices and the caching coming with that.
away. The best of that, even my mother can do it.
Imagine the following situation. Your phone has been Filesystem storage
stolen and all your pictures in the cloud have been deleted Is basically a “normal” filesystem which can be consumed
due to a software bug. I, personally, would probably get a directly. This is a good way to share data between multiple
heart attack just thinking about that I am a person which applications in a read and write a lot manner. This is com-
likes to look at old pictures from time to time to remember monly used to share AI models or scientific data between
happenings and friends during the time. multiple running jobs or applications.
You may ask yourself what does this have to do with
“Data and Persistence”. There is a simple answer for that. Technical note: if you have very very old/legacy applica-
Pictures are data and the persistence is, well in this case, tions which are not really 64bit compatible, you might run
gone because your data has been deleted. into (stat syscall used) problems when the filesystem is us-
Persistence of Data has a different importance to each ing 64bit inodes.
of us. A student in America may hope for the persistence to
be lost on his student debts and the other may have a job
agency which basically relies on keeping the data of their
clients not only available and intact but also secure.
14 FokusObject storage
Object storage is a very cloud native approach to storing
data. You don’t store data on a block device and/or filesys-
tem, you use a HTTP API. Most commonly known in the
object storage field is Amazon Web Services S3 storage.
There are also open source projects implementing (parts)
of the S3 API to act as a drop-in replacement for AWS S3.
Next to S3, there are also other object store APIs/proto-
cols, such as OpenStack Swift, Ceph Rados and more.
In the end it boils down to what are the needs of your ap-
plications, but I would definitely keep in mind what the dif-
ferent storage types can offer. If you narrowed down what er(s) is important before and while you are using their pro-
storage type can be used, look into the storage software posal. As an example, if you should experience problems
market to see which “additional” possibilities each soft- with the platform itself or scaling issues of, let’s say, block
ware can give you for your storage needs. storage, you can directly give feedback to them about it
and possibly work together with them to workout a fix for
Storage in a Cloud-Native world
the issue. Or provide another product which will be able to
In a Cloud-Native world, where everything is dynamic, dis- scale to your current and future needs.
tributed, and must be resilient, it is more important than Storage is especially problematic when it comes to
ever to keep the feature set of your storage which is used scale depending on the solution you are running/using.
for your customer data. It must be highly available all the Assuming your application in itself can scale without is-
time, resilient to failure of a server and/or application, and sues, but the storage runs into performance issues. In most
scale to the needs of your application(s). cases you can’t just add ten more storage servers and the
This might seem like an easy task if your are in the cloud, problem goes away. “Zooming out” of storage as a topic to
but even cloud have limits at a certain point. Though if you persistence, one must accept that there are always certain
have special needs for anything in the cloud you are using, limits to persisting data. Let it be the amount, speed, or
it will definitely help to talk with your cloud provider to re- consistency of data, there will always be a limit or at least
solve problems. The point of talking to your cloud provid- a trade off.
https://rook.io/docs/rook/v0.9/ceph-storage.html
Figure 1: Rook Architecture.
the cloud report 01—2019 15Ceph’s priority will always be consistency even if speed
ROOK IS A FRAMEWORK needs to be sacrificed for that.
TO MAKE IT EASY TO BRING Ceph is not the only storage backend which can be run
using Rook but more on that later.
STORAGE BACKENDS TO RUN
INSIDE OF KUBERNETES Rook Kubernetes integration
In Kubernetes you can consume storage for your ap-
plications, through these Kubernetes objects: Per-
sistentVolumeClaim, PersistentVolume and
StorageClass. Each of these objects has their own
A good example for such scaling limits is Facebook. To role. PersistentVolumeClaims are what users create
keep it short, Facebook at one point just “admitted” that to claim/request storage for their applications. A Per-
there will always be a delay during replication of data/info. sistentVolumeClaim is basically the user facing side of
They accept that when a user from Germany updates his storage in Kubernetes as it is standing for a Persistent-
profile that it can/will take up to 3-5 minutes before users Volume behind that. To enable users to consume storage
from e.g., Seattle, USA, will be able to see those changes. easily through PersistentVolumeClaims, a Kuber-
To summarize this section: Your storage should be as netes administrator should create StorageClasses. An
Cloud-Native as your application. Talk with your cloud pro- administrator can create multiple StorageClasses and
vider during testing and usage, keep them in the loop when also define one as a default. A StorageClass holds pa-
you run into issues. Also don’t try to push limits which can’t rameters which can be “used” during the provisioning pro-
be pushed right now at the current state of technology. cess by the specific storage provider/driver.
You see, Rook enables you to consume storage the Kuber-
What can Rook offer for your Kubernetes
netes native way. The way most operators work in point of
cluster?
their native Kubernetes integration is to watch “simply” for
Rook can turn all or selected nodes into “Ceph storage events happening to a certain selection of objects. “Events”
servers”. This allows you to use “wasted” space from the are, e.g., that an object has been created, deleted, updated.
nodes your Kubernetes cluster runs on. Next to “just utiliz- This allows the operator to react to certain “situations” and
ing ‘wasted’ storage”, you don’t need to buy extra storage act accordingly, e.g., when a watched object is deleted, the
servers. You would just keep that in mind during planning operator could run it’s own cleanup routines or with Rook
the hardware for the Kubernetes cluster (figure 1). as an example, the user creates a Ceph Cluster object and
With running storage on the nodes your applications the operator begins to create all the components for the
can also run on, the hyperconverged aspect is also kind of Ceph Cluster in Kubernetes.
covered. You might not get more performance because of To be able to have custom objects in Kubernetes, Rook
your application running on the same node as your storage uses CustomResourceDefinitions. CustomRe-
with Ceph, but Ceph and Rook are aware of this and will sourceDefinitions are a Kubernetes feature which
possibly look into ways of improving this. Please note that allows users to specify their own objects in their Kuber-
netes clusters. These custom objects allow the user to ab-
stract certain applications/tasks, e.g., with Rook the user is
allowed to create one Ceph Cluster object and have the
Rook Ceph operator create all the other objects (Config-
Maps, Secrets, Deployments and so on) in Kubernetes.
Onto the topic of how Kubernetes mounts the storage
for your applications to be consumed: If you have already
heard a bit about storage for containers, you may have
come across CSI (Container Storage Interface). CSI is a
standardized API to request storage. Instead of having to
maintain drivers per storage backend in the Kubernetes
project, the driver maintenance is moved to each storage
backend itself, which allows faster fixes of issues with the
driver. The normal process when there is an issue in an in-
tree Kubernetes volume plugin is to go through the whole
Kubernetes release process to get the fix out. The storage
backend projects create a driver which implements the CSI
16 Fokusdriver interface/specifications, through which Kubernetes more Ceph Monitors which are the brain of the cluster, and
and other platforms can the request storage. a Ceph Manager which takes care of gathering metrics and
For mounting Ceph volumes in Kubernetes, currently doing other maintenance tasks. There are more compo-
Rook uses the flexvolume driver which may require a small nents in a Ceph cluster, to focus on the third which is next
configuration change in existing Kubernetes clusters. Us- to the Monitors and Manager the most important thing
ing CSI with Rook Ceph clusters will hopefully soon be which will store your data. Ceph Object Storage Daemon
possible when CSI support has been implemented in the (OSD) is the component which “talks” to a disk or directory
Rook 0.9 release. Depending on how you see it flexvolume to store and serve your data.
is just the mount (and unmount) part of what CSI is. The Rook Ceph operator will start and manage the
Ceph monitors, Ceph Manager and Ceph OSDs for you. To
Running Ceph with Rook in Kubernetes
store data in so called Pools in your Ceph cluster, the user
Objects in Kubernetes describe a state, e.g., a Pod object can simply create a Pool object. Again the Rook Ceph op-
contains the state (info) on how a Pod must be created erator will take of it and in this create a Ceph pool. The pool
(container image, command to be run, ports to be open, can then directly be consumed using a StorageClass
and so on). The same applies to a Rook Ceph cluster ob- and PersistentVolumeClaims to dynamically get
ject. A Rook Ceph cluster object describes the user desired PersistentVolumes provisioned for your applications.
state of a Ceph Cluster in their Kubernetes cluster. Below is
an example of a basic Rook Ceph Cluster object: This is how simple it is to run a Ceph cluster inside Kuber-
netes and consume the storage of the Ceph cluster.
Rook is more than just Ceph
Rook is a framework to make it easy to bring storage back-
ends to run inside of Kubernetes. The focus for Rook is to not
only bringing Ceph which is for block, filesystem and ob-
ject storage, but also for persistence on a more application
specific level by running CockroachDB and Minio through
a Rook operator. Due to have the abstraction of complex
tasks/applications through CustomResourceDefini-
tions in Kubernetes, it is as simple as deploying a Ceph
Cluster as shown with the above code snippet.
Not going into too much details about the example Rook To give a quick overview of the currently implemented
Ceph Cluster object here, it will instruct the Rook Ceph storage backends besides Ceph, here is a list of the other
operator to use all nodes in your cluster as long as they are storage backends:
applicable (don’t have taints and/or other “restrictions” on aa Minio - Minio is an open source object storage which
them). For each applicable node it will try to use all emp- implements the S3 API.
ty devices and store configs and some state data in the aa CockroachDB - CockroachDB provides ultra-resilient
dataDirHostPath: /var/lib/rook. SQL for global business. Rook allows you to run it through
If you would search through the Kubernetes API refer- one object to ease the deployment of CockroachDB.
ence you wouldn’t find this API (ceph.rok.io/v1be- aa NFS - NFS exports are provided through the NFS Ga-
ta1) nor the object kind Cluster. As written in the pre- nesha server on top of arbitrary PersistentVolumeC-
vious section, user defined APIs and objects (kinds) are laims.
introduced by a CustomResourceDefinition to the
Kubernetes API. All CustomResourceDefinition of For more information on the state and availability of each
Rook are created during the installation of Rook in your storage backend, please look at “Project Status” section in
Kubernetes cluster. the README file in the Rook GitHub project. Please note
Creating the above object on your Kubernetes cluster, that not all storage backends here are available in Rook
with the Rook Ceph operator running, would cause the version 0.8, which is at the point of writing this article the
Rook Ceph operator to react to the event that an object latest version, some are currently only in the latest devel-
of type / kind Clusterin the API ceph.rook.io/v1be- opment version but a 0.9 release is targeted to happen
ta1 has been created. soon.
Before shortly going into what the Rook Ceph operator Rook project roadmap
does now, I give a quick overview about how a “standard” To give you an outlook of what can be to come up, a sum-
Ceph cluster looks like. A Ceph cluster always has one or mary of the current Rook project roadmap:
the cloud report 01—2019 17aa Further stabilization for the CustomResourceDefinitions aa Twitter - @rook_io
specifications and managing/orchestration logic: aa Slack - https://rook-io.slack.com/
aa Ceph aa For conferences and meetups: Checkout the #confer-
aa CockroachDB ences Channel
aa Minio aa Contribute to Rook:
aa NFS aa https://github.com/rook/rook
aa Dynamic provisioning of filesystem storage for Ceph. aa https://rook.io/
aa Decoupling the Ceph version from Rook to allow the aa Forums - https://groups.google.com/forum/#!forum/
users to run “any” Ceph version. rook-dev
aa Simpler and better disk management to allow adding, re- aa Community Meetings
moving and replacing disks in Rook Ceph cluster.
aa Adding Cassandra as a new storage provider For questions just hop on the Rook.io Slack and ask in the
aa Object Storage user CustomResourceDefinition, to #general channel.
allow managing users by creating, deleting and modify-
ing objects in Kubernetes.
There is more to come for a more detailed roadmap, please Alexander Trost
look at the roadmap file in the Rook GitHub project. Rook Maintainer and DevOps Engineer
alexander@cloudibility.io
How to get involved?
If you are interested in Rook, don’t hesitate to connect with
the Rook community and project using the below ways.
Extend your
cloud capabilities.
cloud.netapp.com
18 FokusCeph Day
Berlin 2018
Berlin. Im CityCube Berlin wurde im Veranstaltung mit einem Talk über
Vorfeld der OpenStack Summit ein the State of Ceph und verkündete bei
Tag, am 12.11.2018, dem alleinigen dieser Gelegenheit auch die Grün-
Thema Ceph gewidmet. Cloudibi- dung der Ceph Foundation, welche
lity war mit drei Personen ebenfalls als direkter Fonds unter der Linux
dabei, wenn auch nur als Besucher. Foundation organisiert ist. Aufgabe
Der Ceph Day Berlin war eine ganz- ist die finanzielle Unterstützung der
tägige Veranstaltung, die sich der Ceph-Projektgemeinschaft und dient
Weitergabe der transformativen Kraft als Forum für Koordinierungsaktivi-
von Ceph und der Förderung der pul- täten und Investitionen, das den tech-
sierenden Ceph-Gemeinschaft ge- nischen Teams Leitlinien für die Road-
widmet hat und von dieser und ihren map und die Weiterentwicklung der
Freunden ausgerichtet wurde. Ceph Projektverwaltung bietet.
ist ein skalierbares, Open-Source- In weiteren Vorträgen wurde unter
und Software-definiertes Speicher- anderem von Ceph-Anwendern wie:
system, welches die Wirtschaftlichkeit MeerKAT radio telescope; SKA Afri-
und das Management von Daten- ca, Bennett SARAO; CERN, Dan van
speichern für Unternehmen grund- der Ster; Human Brain Project, Stack
legend verbessern kann. HPC, Stig Telfer und SWITCHengines, aa Martin Verges, croit
Simon Leinen, vorgestellt, was diese aa Aaron Joue, Ambedded
Es waren schätzungsweise 350 Teil- aus ihren Implementierungen gelernt Technology
nehmer aus verschiedensten Sprach- haben und wie sie damit arbeiten. aa Tom Barron, Red Hat
räumen an diesem schönen Herbst- Es kamen aber auch Partner bzw.
tag anwesend und widmeten sich fast Kunden von Ceph zur Sprache wie: Es war eine gelungene Veranstaltung.
ausschließlich den Vorträgen und Ge- aa Phil Straw, SoftIron Die Ceph Days werden von der
sprächen untereinander in den Pau- aa Robert Sander, Heinlein Support Ceph-Community (und Freunden) in
sen und am Ende der Veranstaltung. aa Jeremy Wei, Prophetstor ausgewählten Städten auf der ganzen
Sage Weil, Red Hat, Gründer und aa Sebastian Wagner und Lenz Welt veranstaltet und dienen der För-
Chefarchitekt von Ceph eröffnete die Grimmer, SUSE derung dieser lebendigen Gemein-
schaft.
Neben Ceph-Experten, Commu-
nity-Mitgliedern und Anbietern hören
Sie auch von Produktionsanwendern
von Ceph, die Ihnen vermitteln, was
diese aus ihren Implementierungen
gelernt haben.
Anna Filipiak
the cloud report 01—2019 19PROJECT DELIVERY
Mind- und Skill-Set für
Digital Leadership
Der Prozess der digitalen Trans- auch die erforderlichen Kompetenz- werden. Dadurch entstehen neue
formation beschäftigt derzeit den bereiche, die sich daraus für Projekt- Zusammenarbeitsmodelle und
Industriestandort D eutschland; zahl- leiterinnen ergeben. Herangehensweisen, die parallel zur
reiche Programm- und Projekt- technischen Migration in Cloud-Um-
leiterinnen1 arbeiten intensiv Enabling Technology felder im Unternehmen verankert
daran, einzelne Produkte oder An- werden. Der Wandel im Kontext einer
wendungen in neuen, digitalen Kon- Spitzentechnologien wie Cloud Com- Enabling Technology ist nicht nur ein
texten zu etablieren. Die Allgegen- puting eröffnen neue Möglichkeiten, technischer Wandel, sondern auch
wärtigkeit des Begriffs wirkt auf viele Arbeit zu organisieren, Innovatio- und vor allem ein kultureller Wandel
Betrachter ermüdend. Letztlich ist sie nen durchzuführen, Produkte her- im Unternehmen.
aber ein Beleg für die Vielschichtig- zustellen und Kunden zu bedienen.
keit von technischen, wirtschaft- Die scheinbar unbegrenzte Elastizität Digital Leadership
lichen und organisatorischen und Flexibilität der technischen Infra-
Veränderungsprozessen, die Projekt- strukturen erschüttern traditionelle Traditionelle Führungskonzepte fo-
leiter und Mitarbeiterinnen als digita- Grenzen des unternehmerisch Mög- kussierten die technische Kom-
le Transformation erleben. lichen. Cloud-Umgebungen schaf- petenz der Projektleiterinnen. Der
fen die Voraussetzungen und den Projekterfolg lag vor allem in der
Um diese Komplexität wirksam zu Gestaltungsraum für hochinnovative substanziellen Steuerungsfähigkeit
gestalten, brauchen Projektleiter ein Prozesse und Produktlösungen, die begründet. Die wirkungsvolle Imple-
adäquates Skill-Set, das sie b
efähigt, bisher nicht wirtschaftlich realisierbar mentierung von Enabling Techno-
den Transformationsprozess nicht waren. logies wie Cloud erfordert jedoch ein
nur technisch zu organisieren, son- beweglicheres Mind- und Skill-Set.
dern auch die Mitarbeiter dafür zu ge- Um diesen Möglichkeitsraum zum Nicht die Planungs- und Steuerungs-
winnen. Anhand des Cloud Compu- eigenen Wettbewerbsvorteil zu arbeit steht im Mittelpunkt, son-
ting werden in diesem Beitrag sowohl nutzen, müssen alle Abteilungen dern die kommunikative Einbindung
das der Technologie innewohnende gleichermaßen in die Gestaltung aller beteiligten Kollegen. Allein mit
Veränderungspotenzial skizziert, als der Cloud-Umgebung eingebunden der Einhaltung von Terminplänen
kann der Projekterfolg nicht sicher-
gestellt werden. Ein wirtschaftlicher
Mehrwert für das Unternehmen wird
nicht durch das Abhaken von An-
forderungsdokumenten oder Beauf-
tragungen erreicht. Stattdessen müs-
DIGITALE PROJEKTLEITER sen digital versierte Projektleiter alle
Beteiligten dazu befähigen, die ver-
VERWANDELN LIMITIERUNG IN änderte Technologie auch in neuen
Kontexten zielführend und wirksam
EINEN POSITIVEN IMPULS zu nutzen.
1 In diesem Artikel geben wir jeweils nur eine Form von weiblichen oder männlichen Bezeichnungen wieder, aber selbstverständlich denken wir uns alle mit: weiblich, männlich, divers.
20 Project DeliveryTime Time
Scope Scope Energetic Curiosity
Cost Cost In einem Umfeld sich rasch ver-
ändernden, spezialisierten Wissens
verfügen auch erfahrene Führungs-
persönlichkeiten über eine be-
Time Time
Scope schränkte Wissensbasis. Digita-
Scope
Cost le Projektleiter verwandeln diese
Cost
Limitierung in einen positiven Im-
puls des Teilens von Wissen und Ver-
antwortung. Sie schätzen kritische
Fragen höher als unkritische Ant-
worten; sie sind skeptisch gegen-
über unverrückbaren Wahrheiten.
Sie schaffen ein Umfeld, in dem alle
Projektbeteiligten neue Antworten
nal Project Leadership
Traditional Project Leadership Digital Project Leadership Digital Project Leadership
entwickeln und innovative Lösungen
formulieren können.
Anpassungsfähigkeit gilt auch
für Führungsqualitäten
Digitale Transformation ist ein in-
Damit Enabling Technologies ihre Technologie ist verständlich. Einige zwischen weitläufig verwendeter
Wirkmächtigkeit entfalten können, Kollegen mögen sogar grundsätzlich Sammelbegriff, der sehr ver-
müssen Projektleiterinnen die be- bezweifeln, dass eine zunehmende schiedene Veränderungsprozesse
teiligten Mitarbeiter zu eigenstädi- Flexibilität der Geschäftsprozesse subsumiert. Obgleich die Einführung
gen Gestaltern und selbstbewussten wünschenswert oder realisierbar von Cloud-Umgebungen eine spezi-
Nutzern der Technologie be- sei. Digitale Projektleiter reflek- fische Technologie beinhaltet, rea-
fähigen. Dabei helfen ihnen persön- tieren dieses Spannungsfeld und lisieren sich die einzelnen Projek-
liche Stärken in den folgenden vier binden auch die skeptischen Mit- te in einem breiten Spannungsfeld
Kompetenzbereichen: arbeiterinnen in die Kommunika- wirtschaftlicher und organisatori-
tion ein. Gleichzeitig treiben sie den scher Rahmenbedingungen. Ent-
Inspire to Grow Veränderungsprozess entschlossen sprechend variabel müssen auch
Transformationsprozesse in Cloud- voran. Ihre Energie reißt das Team die Kompetenzbereiche digitaler
Um gebungen sind komplexe Auf- und die Organisation mit. Sie er- Projektleiterinnen konzipiert werden.
gaben in einem dynamischen Arbeits- klären unermüdlich die Bedeutung Damit Unternehmen die Chancen
und Wissensumfeld. Die beteiligten und Bedeutsamkeit des Projektes. von Enabling Technologies individu-
Kolleginnen, nicht nur in den IT-Ab- Ihre Offenheit und unermüdliche ell realisieren können, gibt es kein sta-
teilungen, müssen mit grundsätzlich Kommunikation gerade mit den tisches One-Size-Fits-All Führungs-
neuen Konzepten und Applikationen Skeptikern schafft eine belastbare modell. Wer die Ambiguität des oben
umgehen lernen. Projektleiterinnen Vertrauensbasis. skizzierten Kompetenzmodells an-
inspirieren das Team zum Lernen. Sie nimmt und stattdessen fragt: “Wel-
unterstützen das Team auf diesem Focused Vision che konkreten Fähigkeiten sind in
persönlichen Wachstumspfad und Komplexe Transformationsprozesse dem konkreten Projekt in einer kon-
agieren als Coaches, Mentoren und können nicht en detail geplant wer- kreten Projektphase am wirkungs-
Lehrer. den. Viele Unwägbarkeiten und vollsten?”, der ist auf dem richtigen
Abhängigkeiten beeinflussen den Weg zum Digital Leadership.
Trustworthy Determination Projektverlauf. Digitale Projekt-
Die Migration in Cloud-Umfelder leiterinnen akzeptieren diese Un- Felix Evert
und die Entwicklung neuer Zu- sicherheit. Sie haben eine klare Vor- Head of Consulting
felix@cloudibility.io
sammenarbeitsmodelle sind tief- stellung von dem Ergebnis. Sie setzen
greifende Veränderungen in einer eine klare Richtung und agieren auf
Organisation. Eine gewisse Skep- dem Weg flexibel und anpassungs-
sis gegenüber der anspruchsvollen fähig.
the cloud report 01—2019 21Sie können auch lesen