Storage Furthermore: Geo Redundancy - Ceph - Rook - Project Delivery - The Cloud Report
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
KOMPETENZ FÜR IHRE SICHERHEIT – SEIT 1966 Die Dr. Hörtkorn Unternehmensgruppe zählt zu den größten inhabergeführten Versicherungsmaklern in Deutschland. Mit rund 200 Mitarbeitern sind wir Ihr kompetenter Partner rund um die Bereiche Unternehmensversicherung und Vorsorgemanagement. Weitere Infos auf www.dr-hoertkorn.de oder gleich Termin unter 07131/949-0 vereinbaren. DR. FRIEDRICH E. HÖRTKORN GMBH | Oststraße 38 - 44 | 74072 Heilbronn | Telefon 07131/949-0 | info@dr-hoertkorn.de BERLIN CHEMNITZ HEILBRONN KARLSRUHE MANNHEIM MÜNCHEN NÜRNBERG PHILADELPHIA (USA) STUTTGART
EDITORIAL Storing Data Cloud verspricht den Eintritt in die digitale, virtuelle Welt. Die alten Server- schränke werden aufgelöst, die Daten transferiert und der Nutzer arbeitet mit dem Laptop über´s Internet, wo er oder sie möchte. Cloud-Provider ver- sprechen, dass die Daten und Services rund um die Uhr zur Verfügung stehen, und garantieren auch, dass sie auf keinen Fall verloren gehen. In der Cloud hängen die gespeicherten Daten aber natürlich nicht in der Luft, sie werden weiterhin auf Festplatten in Serverschränken in Rechenzentren ge- speichert, die nur nicht mehr notwendig in der Nähe der Datennutzer stehen müssen. In diesen Rechenzentren sind dann auch häufig die Daten mehrerer Abteilungen, sogar mehrerer Firmen gesammelt. In Public Clouds sind sogar die Daten von unzähligen privaten und kommerziellen Kunden nebeneinander gespeichert. Und dennoch wird eine Datensicherheit garantiert und realisiert, dass tatsächlich nur berechtigte Nutzer einen entsprechenden Zugriff haben. Dies erfordert eine besondere Infrastruktur in diesen Rechenzentren, aber auch eine besondere Technik und Software. In dieser Ausgabe liegt der Schwerpunkt auf genau dieser Technik und Software. Wir stellen dafür verschiedenen Sto- rage-Lösungen (Ceph, Rook) und auch Storage-Anbieter (NetApp) vor, die die oben genannten Herausforderungen zu lösen versuchen. Ziel der Lösungen und Angebote ist es, vorhandenen Speicherplatz optimal zu nutzen. Für Firmen, die eine Private Cloud Lösung anstreben, kann mit den richtigen Tools eine auf den Bedarf angepasste Einstiegsinvestition errechnet werden. Denn wer vorhandene Speicherkapazitäten optimal nutzen kann, muss nicht in zusätzliche Kapazitäten investieren. Über Storage hinausgehend beginnen wir mit der Reihe Project Delivery. In dieser behandeln wir Themen, die direkt mit der Cloudifizierung einhergehen: Zusammenarbeitsmodelle, Agiles Arbeiten, angepasste Prozesse, Projekt- abwicklung im Sinne des Kunden, ohne dabei die beteiligten DevOps Engi- neers aus den Augen zu verlieren, … Wer sich auf Cloud einlässt, betritt damit nicht nur eine neue technische Welt. Und wir möchten helfen, dass Sie diese Schritte nicht blind gehen, sondern bewusst, geplant und langfristig digital. Natürlich haben wir weitere Cloud-Angebote ausführlich getestet und aus- gewertet. Die Ergebnisse der Tests finden Sie, wie immer, am Ende des Heftes. Ich wünsche Ihnen, auch im Namen der Cloudibility, ein erfolgreiches, cloudi- ges, nichtsdestotrotz sonniges Jahr 2019! Viel Spaß beim Lesen! Ihre Friederike Zelke Editor in Chief the cloud report 01—2019 1
the cloud report IMPRESSUM Herausgeber Cloudibility UG, Kurfürstendamm 21, 10719 Berlin Geschäftsführung Michael Dombek und Karsten Samaschke Publikationsleitung / Chefredaktion Friederike Zelke Redaktion Julia Hahn, Emelie Gustafsson Onlineredaktion Stefan Klose Vertrieb Linda Kräter Anzeigen Julia Hahn Artdirektion und Gestaltung Anna Bakalovic Herstellung Regina Metz, Andreas Merkert Kontakt zur Redaktion presse@cloudibility.io Kontakt zu Anzeigen und Vertrieb marketing@cloudibility.io / sales@cloudibility.io / vertrieb@cloudibility.io Copyright © Cloudibility UG the cloud report erscheint bei der Cloudibility UG Kurfürstendamm 21, 10719 Berlin Geschäftsführung Michael Dombek und Karsten Samaschke Telefon: +49 30 88 70 61 718 , E-Mail: info@cloudibility.io the-report.cloud ISSN 2626-1200 The Cloud Report erscheint vierteljährlich jeweils Anfang Januar, April, Juli, Oktober. The Cloud Report gibt es in zwei Versionen, zum einen die Online-Ausgabe, die über die Homepage online oder als Download er- reichbar ist, zum anderen die gedruckte Ausgabe zum Preis von 20 Euro im Jahr abonnierbar über das perso- nalisierte Kundenportal, in dem ein persönlicher Account eingerichtet wird. Bitte geben Sie bei Ihrer Regist- rierung an, in welcher Ausführung Sie den Report beziehen möchten. Das Abonnement ist jederzeit über den persönlichen Zugang des Abonnenten kündbar, per Mail spätestens zwei Wochen vor Erscheinen der neuen Ausgabe über die E-Mailadresse: vertrieb@cloudibility.io. Für das Abonnement erheben wir relevante per- sönliche Kundendaten. Einzelne Ausgaben können auch ohne Abonnement käuflich erworben werden zum Preis von: 5 Euro, auch in diesem Fall werden relevante persönliche Daten zur Erfüllung des Kaufvertrages erhoben. Weitere Informationen hierzu finden Sie unter: http://the-report.cloud/privacy-policy 2 Impressum
the cloud report INHALT EDITORIAL Storing Data 1 KOMMENTAR Around the globe and into trouble 4 FOKUS Stay ahead of the pack 6 Interview mit Kim-Norman Sahm über Ceph 11 Rook more than Ceph 14 Ceph Day Berlin 2018 19 PROJECT DELIVERY Mind- und Skill-Set für Digital Leadership 20 Time KONFERENZBERICHTE Scope Cost My first OpenStack Summit 22 Time Cloud-Welt in Mannheim 24 Scope Cost TESTS Wir testen Clouds Traditional 26 Project Leadership Digital Project Leadership And the Winner is … 27 Auswertung der technischen Tests 28 the cloud report 01—2019 3
KOMMENTAR Around the globe and into trouble As simple as it is to produce, consume, manipulate, and And that makes things complicated, as most organiza- store data and applications in cloud environments, you tions and individuals are not aware of the consequences need to ensure their availability, backup, and recovery. and implications of utilizing geo-redundancy. Such con- Surely, this can be handled by built-in mechanisms of the sequences could be: Authorities of countries may gain respective environments such as multi-location storage, access to confident or user-specific data. Privacy regula- backup, and restore - but what is about data safety, data tions would not be fulfilled anymore, data security might integrity and privacy? be hampered, business models and customer‘s trust would vanish, if those consequences would not have been taken In modern cloud environments data can easily be stored into account, mitigated, legally checked and communicat- and backed up in multiple locations around the globe. ed properly. These approaches provide a lot of advantages: Protection from local disasters such as earthquakes or fires, faster Is geo-redundancy a no-go then? availability of data to clients and customers in different re- gions of the world, decentralized and parallel processing of Of course not, but a proper planning process needs to be data, better utilization of resources, etc. And, it can be ini- established and executed, involving legal and data com- tiated easily without having to program and to learn about pliance teams and clarifying these aspects with the same cloud technologies. priority as solving technical issues. Actually, a process like this needs to be executed before, while and after solving Brave new world, problems solved, technical issues, executing 3-2-1 backup strategies (3 cop- cloud technology for the win! ies of data, 2 storage medias, at least 1 offsite) or processing any data in a cloud environment. This ongoing and perma- But, unfortunately, things are not that simple and easy, at nent process is even more required when trying to utilize least from a non-technical point of view, as cloud vendors multi-cloud-environments for better data isolation or to have to apply to legal regulations at the location of the data harness advantages of specific cloud environments. And centers. Which basically means: Legal regulations, such as it needs to remain in place, considering the ever-changing data privacy laws and rights of local authorities apply. nature of laws and regulations. 4 Kommentar
So, when trying to secure data by storing and processing it or of simply implementing and setting up of technical ap- in cloud environments, it is not enough to just press a but- proaches. ton or execute a command. It is not enough just to think of a backup strategy. It is not enough to solve a technical issue Cloud is complex. It often encapsulates a technical com- or to provide faster transport of data to users. It may even plexity, making approaches as geo-redundancy and da- be dangerous if not critical to a business to simply store ta-replication as easy as clicking on a button. But it can and data in cloud environments or to utilize awesome technical it will not abstract from legal problems and data-security advantages such as Amazon S3, Azure Storage, blob- and aspects. Moving and executing in cloud environments, object stores, etc. It is not enough to hope to comply with your responsibility does not decrease, it actually increases GDPR- or other privacy regulations – you actually need to and therefore needs to be understood, accepted and man- comply with them, everywhere and anytime. aged continuously and as part of a process. When executing businesses in cloud environments, gover- As with all cloud solutions and approaches, you remain in nance and legal need to be involved. They need to be part command and you remain responsible for everything your of a - THE - process. Which again should make you think organization creates, operates and stores. of how to set up and execute processes and ensure sus- tainability in your cloud strategy. DevOps and other mod- Literally everywhere on the planet. ern collaboration approaches are required to sensitize for problems and consequences of just „lifting and shifting“ Karsten Samaschke into cloud environments (which is way too often performed Co-Founder und CEO der Cloudibility Kurfürstendamm 21, 10719 Berlin by setting up VMs, firewalls and infrastructures, bringing karsten@cloudibility.io in applications and not realizing the implications of mov- ing from self-owned and self-operated data centers into vendor-owned and vendor-operated cloud environments) the cloud report 01—2019 5
FOKUS Stay ahead of the pack and capture the full potential of your cloud business In today’s IT ecosystem, the cloud has become synonymous with flexibility and efficiency. Though, all that glitters is not gold since applications with fixed usage patterns often continue to be deployed on-premises. This leads to hybrid cloud environments creating va- rious data management challenges. This article describes available solutions to tackle risks such as scattered data silos, vendor lock-ins & lack of control scenarios. The famous quote of Henry Ford “If you always do what ing technologies, there is no doubt, that the amount of you’ve always done, you’ll always get what you’ve always data is further growing. According to the IBM Marketing got” describes pretty accurately what happens once you Cloud report, “10 Key Marketing Trends For 2017,” 90 % of stop challenging current situations to improve them for the data in the world today has been created in the last two the future: you become rigid and restricted in your think- years from which the majority is unstructured. To become ing with the result of being unable to adapt to new situa- an understanding of this, figure 1 illustrates the number of tions. In today’s business environment, data is considered transactions executed every 60 seconds for a variety of as the base to help organizations succeed in their digital data related products within the ecosystem of the internet. transformation by deriving valuable information leading Estimates suggest that by 2020 about 1.7 MB of new eventually to a competitive advantage. The value of data data will be created every second for every human on the has also been recognised by the Economist in May 2017, planet leading to 44 zettabytes of data (or 44 trillion giga- stating that data has replaced oil as the world’s most valu- bytes). The exploding volumes of data changes the nature able resource. Why is that? The use of smartphones and of competition in the corporate world. If an organization the internet have made data abundant, ubiquitous, and is able to collect and process data properly, the product far more valuable since nowadays almost any activity cre- scope can be improved based on specific customer needs ates a digital trace no matter if you are just taking a picture, which attracts more customers, generating even more data having a phone call or browsing through the internet. Also, and so on. The value of data can also be illustrated within with the development of new devices, sensors, and emerg- the Data-Information-Knowledge-Wisdom (DIKW) Pyra- 6 Fokus
https://www.beingguru.com/2018/09/what-happens-on-internet-in-60-seconds-in-2018/ Figure 1: 60 seconds in the internet mid referring back to the initial quote (figure 2). Typically, information is defined in terms of data, knowledge in terms of information, and wisdom in terms of knowledge hence. Data is considered as the initial base to gain wisdom. As a result, the key to success in the digital era is to maximize the value of data. That might mean improving the cus- tomer experience, making information more accessible to stakeholders, or identifying opportunities that lead to new markets and new customers. All that glitters is not gold In addition to the described observation that the quantity of data is growing exponentially further challenges can be derived for the following three categories: aa Distributed: Data is no longer located at one location such as your local data centre. Data relevant for enter- Figure 2: DIKW pyramid (by Longlivetheux) prises is distributed across multiple locations. the cloud report 01—2019 7
aa Diverse: Data is no longer available just in a structured and seamlessly moving data into and out of the cloud as format. As already mentioned before, most of the data needed. The question regarding the data movement be- being created is considered as unstructured data such comes even more crucial with regards to potential vendor as images, audio-/video files, emails, web-pages, social lock-ins. To address those challenges, organizations must media messages etc. invest in cloud services while developing new data services aa Dynamic: Given the described increase in quantity, data that are tailored to a hybrid cloud environment. Deploying sets grow quickly and can change over time. Hence, it data services across a hybrid cloud can help organizations is difficult to keep track of the state where the data is to respond faster and stay ahead of the competition. How- located and where it came from. ever, all the data in the world won’t do your organization any good if the people who need it can’t access it. Employ- According to the IDC study: “Become a Data Thriver: Re- ees at every level, not just executive teams, must be able alize Data-Driven Digital Transformation (2007)”, leading to make data-driven decisions. To support organizations digital organizations have discovered that the cloud, with in their digital transformation process by creating new and its power to deliver agility and flexibility has the ability to innovative business opportunities fuelled by distributed, tackle the described challenges and is indispensable for divers and dynamic data sets, organizations often find their achieving their digital transformation. Cloud computing is most valuable data trapped in silos, hampered by com- therefore aiding the business to stay flexible and efficient plexity and too costly to harness (figure 3). To undermine in an ever-changing environment. It enables customers this statement, industry research from RightScale identi- to deploy services or run applications with varying usage fied, that organizations worldwide are wasting, on average needs that allows you to pay what you need, when you a staggering 35 % of their cloud investment. Or, to put it in need it. This realization leads most organizations to hybrid monetary terms, globally over $10 billion is being misspent IT environments, in which data is generated and stored in the provisioning of cloud resources each year. across a combination of on-premises, private cloud, and public cloud resources. The existence of a hybrid IT envi- Every cloud has a silver lining ronment is probably the result of an organic growth and might be more tactical than strategical. Different lines of The ultimate goal of the described problem should be, that business in the organisation are likely using whatever tools business data needs to be shared, protected and integrat- they need to get their jobs done without involving the IT ed at corporate level, regardless where the data is locat- department. This approach creates numerous challeng- ed. Although organizations can outsource infrastructure es for IT teams, such as knowing what data is where, pro- and applications to the cloud, they can never outsource tecting and integrating data, securing data and ensuring the responsibility they have for their business data. Or- compliance, figuring out how to optimize data placement, ganizations have spent years controlling and aligning the Figure 3: isolated resources / data silos Figure 4: NetApp Data Fabric 8 Fokus
Figure 5: multi-cloud use-case scenarios appropriate levels of data performance, protection, and Cloud Storage security in their data centre to support applications. Now, NetApp offers several services and solutions to address as they seek to pull in a mix of public cloud resources for data protection and security needs, including: infrastructure and apps, they need to maintain control aa Backup and restore services for SaaS services such of their data in this new hybrid cloud. They need a single, Office365 and Salesforce cohesive data environment, which is a vendor-agnostic aa Cloud-integrated backup for on-premises data platform for on-premises and hybrid clouds to give them aa End-to-end protection services for hybrid clouds control over their data. A cloud strategy is only as good as the data management strategy that underpins it and if you NetApp Cloud Volumes Service offers consistent, reliable can’t measure it, you can’t manage it. The starting point to storage and data management with multi-protocol sup- establish an appropriate cloud strategy is to become an in- port for MS Azure, AWS and Google Cloud Platform, en- sight of the data available for being able to control it. This abling existing file-based applications to be migrated at implies that the data locations need to be identified and scale and new applications to consume data and extract additional attributes concerning performance, capacity, value quickly (figure 5). and availability it requires and what the storage costs are. Furthermore, it enables you to scale development ac- After, the data can be integrated to cloud data services ex- tivities in AWS and Google Cloud Platform, including tending the capabilities within the areas of: backup- and building out developer workspaces in seconds rather than disaster recover management, DevOps, production work- hours, and feeding pipelines to build jobs in a fraction of loads, cloud-based analytics etc. the time. Container-based workloads and microservices can also achieve better resiliency with persistent storage The following section describes a data management provided by Cloud Volumes Service. solution by using NetApp’s Data Fabric as an example, Azure NetApp Files similarly enables you to scale de- though there are a variety of vendors offering similar velopment and DevOps activities in Microsoft Azure all in solution. (Editor’s note) a fully managed native Azure service. NetApp Cloud Vol- umes ONTAP® services enable developers and IT opera- NetApp’s Data Fabric (figure 4) empowers organizations to tors to use the same capabilities in the cloud as on-premis- use data for being able to make intelligent decisions about es, allowing DevOps to easily span multiple environments. how to optimize their business and get the most out of their IT infrastructure. They provide essential data visibility Cloud Analytics and insight, data access and control, and data protection Since IT infrastructures are growing more complex and and security. With it, you can simplify the deployment of administrators are asked to do more with fewer resourc- data services across cloud and on-premises environments es. While businesses depend on infrastructures that span to accelerate digital transformation to gain the desired on-premises and cloud, administrators responsible for competitive advantage.1 A short description for use-cases these infrastructures are left with a growing number of inad- within the area of storage, analytics and data provision- equate tools that leads to poor customer satisfaction, out of ing within a hybrid cloud environment is described below, control costs, and an inability to keep pace with innovation. tackling the main issues described earlier. NetApp Cloud Insights is a simple to use SaaS-based monitoring and optimization tool designed specifically for cloud infrastructure and deployment technologies. It pro- vides users with real-time data visualization of the topol- ogy, availability, performance and utilization of their cloud 1 The products related to NetApp’s Data Fabric can be found at cloud.netapp.com. and on-premises resources (figure 6). the cloud report 01—2019 9
Figure 6: Cloud Insight performance dashboard Cloud Data Services - Cloud Sync One of the biggest difficulties in moving data is the Transferring data between disparate platforms and main- slow speed of data transfers. Data movers must move data taining synchronisation can be challenging for IT. Moving between on-premises data centres, production cloud en- from legacy systems to new technology, server consolida- vironments and cloud storage as efficiently as possible. tion and cloud migration, all require large amounts of data NetApp Cloud Sync is designed to specifically address to be moved between different domains, technologies and those issues, making use of parallel algorithms to deliver data formats. Existing methods such as relying on simplis- speed, efficiency and data integrity. The objective is to pro- tic copy tools or homegrown scripts that must be created, vide an easy to use cloud replication and synchronisation managed and maintained can be unreliable or not robust service for transferring files between on-premises NFS or enough and fail to address challenges such as: CIFS file shares, Amazon S3 object format, Azure Blob, IBM aa Effectively and securely getting a dataset to the new Cloud Object Storage, or NetApp StorageGRID (figure 7). target aa Transforming data to the new format and structure aa Timeframe and keeping it up to date aa Cost of the process aa Validating migrated data is consistent and complete Erik Lau, Solutions Engineer Erik has a love for technology and the ability to tie technical concepts back to underlying business needs. He works at NetApp as a Solutions Engineer helping customers discovering technical solutions tackling demanding busi- ness challenges within the field of Cloud-Computing and Data-Science. NetApp Deutschland GmbH Harburger Schloßstrasse 26 21079 Hamburg Figure 7: Integrate the cloud with your existing infrastructure 10 Fokus
INTERVIEW Interview mit Kim-Norman Sahm über Ceph Kim-Norman Sahm ist Head of Cloud Techno- wurde als die Lösung gesehen, Compute-Res- logy bei der Cloudibility und als Experte in den sourcen effizienter zu nutzen. Der Storage-Be- Bereichen OpenStack, Ceph und Kuberne- reich wandelte sich hin zu SDS-Lösungen (Soft- tes unterwegs. Als typischer Ops-ler ist er im ware Defined Storage), welche eine Vielzahl Thema Storage Zuhause und hat schon einige von Vorteilen mit sich bringen: Kosteneffizienz, Ceph-Projekte umgesetzt. Speichermöglich- Flexibilität, Elastizität, … Software-Lösungen keiten und -kapazitäten spielen im IT-Umfeld brechen die harten Grenzen der klassischen schon immer eine große Rolle, mit dem Gang in Storage-Lösungen auf und ermöglichen ver- die Cloud verändern sich diese Möglichkeiten teilte Systeme, Georedundanz und, zum Bei- aber sehr, wie sie sich verändern und wie Ceph spiel mit Ceph, vermeiden sie Vendor Lock-in, dabei eingebunden werden kann, sind wir in die- das heißt, das Storage-System ist nicht länger sem Interview auf den Grund gegangen. von einem Hersteller abhängig. In der Cloud ist Storage inzwischen ein Service, der Kunde will Warum ist das Thema Storage wichtig? nur bezahlen, was er wirklich nutzt. Für den An- Was ist besonders an Storage in der Cloud? bieter ergeben sich damit auch Vorteile, er kann Was hat sich verändert? den Platz flexibel und somit effizient ausnutzen. Storage war schon immer Thema, in der Lega- cy-Welt gab es die Anforderungen, alle Infor- mationen, die anfallen, zu speichern. Alle Apps waren darauf angewiesen, persistenten Sto- rage zur Verfügung zu haben. Generell wurde mit Storage- und Compute-Ressourcen sehr großzügig umgegangen. Selbst für kleinste An- wendungen wurden häufig zu große Server an- geschafft, die normalerweise zu 90 % ungenutzt blieben. Dabei waren Systeme unflexibel und in monolithische Storage-Blöcke eingeteilt. Es gab nur wenige Storage-Hersteller und die An- gebote waren oft sehr teuer. Mit der Zeit entwickelte es sich in die Rich- tung, Ressourcen effizienter zu nutzen, sowohl Compute als auch Storage. Virtualisierung Kim-Norman Sahm the cloud report 01—2019 11
Figure 1: Ceph overview Bezüglich Cloud Native Anwendungen hat logischen, hochverfügbaren Storage-Pool zur sich auch die Mentalität dahingehend verändert, Verfügung, der dann eine Gesamtkapazität der dass nur noch gespeichert wird, was gespeichert Summe aller Platten bereitstellt. Dies kann dann werden muss, nicht mehr alles. Der größte Teil in mehrere logische Pools aufgeteilt werden, die von Microservices sind beispielsweise stateless, den Anwendungen zur Verfügung gestellt wer- es werden keine Daten mehr gespeichert. Somit den. wird der Storage auch diesbezüglich effizient Ein großer Vorteil von Ceph ist, dass es Block-, genutzt. Object- und File-Storage aus einem Backend bereitstellen kann. Man ist nicht in der Situa- Wie kommt hier Ceph ins Spiel? tion, für jeden Storage-Typ eine eigene Storage- Ceph ist eine Software Defined Storage-Lö- Lösungen anschaffen zu müssen (Figure 1). sung, entstanden aus der Doktorarbeit von Sage Weil konnte sich Ceph erfolgreich auf Wie arbeitet Ceph? dem damals noch dünn besiedelten Software Als das Ceph-Projekt gestarten wurde, be- Defined Storage-Markt behaupten. Die Open schränkte sich das Angebot auf Block- und Source-Lösung bietet ein hochverfügbares Sto- Object-Storage. Im Vergleich zu anderen Sto- rage-Backend, welches auf jeder beliebigen X86 rage-Lösungen, die über Gateway- oder Pro- Server-Hardware läuft. Vereinfacht ausgedrückt xy-Nodes den Client mit dem Storage-System fasst Ceph alle physikalischen Festplatten im verbinden, führte Ceph von Anfang an eine “no Cluster-Verbund zusammen und stellt diese als single point of failure” ein. Die Ceph-Architektur bestand zunächst aus Ceph Monitor (Mon) und Ceph OSD (Object Storage Daemon). Mons stellen die Cluster-Logik bereit, es müssen mindestens 3, maximal 11 Monitoren im Cluster existieren, deren Anzahl wegen Quorum immer ungerade sein muss. Die Aufgabe der Mons ist es, den Cluster-State zu überwachen und die hochverfügbare Verteilung der Objek- „Ein großer Vorteil von Ceph te zu gewährleisten. Dafür halten die Mons die CRUSH-Map, eine Art Lageplan der Objekte, ist, dass es Block-, Object- vor. Die eigentlichen Nutzdaten werden auf und File-Storage aus einem den OSD-Nodes gespeichert. Eine OSD stellt immer genau eine physikalische Festplatte dar. Backend bereitstellen kann. “ Wenn ein Client auf die Block-Storage-Daten 12 Interview
zugreifen möchte, wendet er sich zunächst an einen der Monitor-Nodes und fordert die „Mit seiner großen CRUSH-Map an. Anhand dieser Map und dem Skalierbarkeit ermöglicht Berechnungsalgorithmus CRUSH ist der Client selbständig in der Lage zu berechnen, auf wel- Ceph, mit einem chen OSDs die Daten liegen, die er benötigt, kleinen Setup zu starten.“ und kontaktiert dann direkt die entsprechenden OSD-Nodes (Figure 2). Werden Daten geschrieben, verhält sich das System analog. Um die Hochverfügbar- keit zu gewährleisten, werden Objekte vom Ceph-Cluster dreifach (Ceph Default Wert) penStack Swift (Object-Storage) anbietet. O repliziert. Ein Objekt wird geschrieben, es exis- Diese Entwicklung verhalf Ceph zu einem höhe- tiert danach aber dreimal im Cluster. Das Repli- ren Marktanteil, da Ceph bis heute als das Stan- zierungslevel ist anpassbar, man begeht dabei dard-Storage-Backend für OpenStack gilt. Um aber den Spagat zwischen Hochverfügbarkeit die Dreifaltigkeit des Storage zu vollenden, führ- und Kosteneffizienz. Die Besonderheit hierbei te Ceph mit CephFS ein Netzwerk-basiertes ist, dass der Schreibvorgang dem Client erst Filesystem ein, dessen Client-Modul sich seit bestätigt wird, wenn alle Replikas geschrieben Version 2.6 im Linux-Kernel befindet. wurden. Dies stellt allerdings eine Schwierig- keit beim Aufbau von Geoclustern dar, weil die Warum wird Ceph eingesetzt? Wofür ist es Paket-Laufzeiten zu Problemen führen können. wichtig? Deshalb gibt es keine Ceph-Geocluster. Das Aufgrund seiner Vielseitigkeit eignet sich Ceph Ceph-Projekt arbeitet aktuell unter anderem an für viele Unternehmen. Mit seiner großen asynchronen Schreibvorgängen, um Geocluster Skalierbarkeit ermöglicht Ceph, mit einem klei- zu ermöglichen. nen Setup zu starten und dieses mit der steigen- Einen großen Schritt vorwärts ging es für den Anfrage/Nutzung wachsen zu lassen. Ob als das Ceph-Projekt, als die OpenStack-Com- reiner Object-Store für Backups und andere An- munity auf Ceph aufmerksam wurde und sich wendungen, als Backend für Private Cloud-Lö- dies hervorragend als Backend für OpenStack sungen auf Basis von OpenStack oder KVM Cinder (Block-Storage) sowie als Ersatz für oder als NFS- Ersatz für Linux-Clients, ist Ceph flexibel verwendbar. Durch die gute Integration in Kubernetes wird auch der Einsatz von Ceph in der Container-Welt realisierbar. In den meisten Management-Runden ist das Hauptargument für die Einführung von Ceph der preisliche Vorteil gegenüber kom- Figure 2: Ceph flow merziellen Closed Source Enterprise Sto- rage-Lösungen. Günstige Server-Hardware und Community-Software ermöglichen einen Start mit geringen Capex-Aufwänden. Wem der Ein- satz von Open Source-Software mit Communi- Seite 12,13: http://docs.ceph.com/docs/master/architecture/ ty-Support schlaflose Nächte bereitet, der hat die Möglichkeit über die Linux-Distributoren kommerziellen Support zu erwerben. Das Subscriptions-Modell ist dabei sehr dif- ferenziert und sollte im Vorfeld gründlich ge- prüft werden. Generell gilt, so vielseitig Ceph ist, desto größer ist die Herausforderung im täglichen Betrieb. Das Ops-Team muss ent- sprechend fit sein. Das Interview führte Friederike Zelke. the cloud report 01—2019 13
FOKUS Rook more than Ceph Rook allows you to run Ceph and other storage backends in Kubernetes with ease. Consumption of storage, especially block and filesystem storage, can be consumed through Kubernetes native ways. This allows users of a Kubernetes cluster to consu- me storage easily as in “any” other standard Kubernetes cluster out there. Allowing users to “switch” between any Kubernetes offering to run their containerized appli- cations. Looking at the storage backends such as Minio and CockroachDB, this can also potentially reduce costs for you if you use Rook to simply run the CockroachDB yourself instead of through your cloud provider. Data and Persistence Storage: What is the right one? Aren’t we all loving the comfort of the cloud? Simple back- up and also sharing of pictures as an example. Ignoring Block storage privacy concerns for now when using a company for that, Will give you block devices on which you can format as instead of e.g., self hosting, which would be a whole oth- you need, just like a “normal” disk attached to your sys- er topic. I love being able to take pictures of my cats, the tem. Block storage is used for applications, such as MySQL, landscape, and my food and sharing the pictures. Sharing a PostgreSQL, and more, which need the “raw” performance picture with the world or just your family is only a few clicks of block devices and the caching coming with that. away. The best of that, even my mother can do it. Imagine the following situation. Your phone has been Filesystem storage stolen and all your pictures in the cloud have been deleted Is basically a “normal” filesystem which can be consumed due to a software bug. I, personally, would probably get a directly. This is a good way to share data between multiple heart attack just thinking about that I am a person which applications in a read and write a lot manner. This is com- likes to look at old pictures from time to time to remember monly used to share AI models or scientific data between happenings and friends during the time. multiple running jobs or applications. You may ask yourself what does this have to do with “Data and Persistence”. There is a simple answer for that. Technical note: if you have very very old/legacy applica- Pictures are data and the persistence is, well in this case, tions which are not really 64bit compatible, you might run gone because your data has been deleted. into (stat syscall used) problems when the filesystem is us- Persistence of Data has a different importance to each ing 64bit inodes. of us. A student in America may hope for the persistence to be lost on his student debts and the other may have a job agency which basically relies on keeping the data of their clients not only available and intact but also secure. 14 Fokus
Object storage Object storage is a very cloud native approach to storing data. You don’t store data on a block device and/or filesys- tem, you use a HTTP API. Most commonly known in the object storage field is Amazon Web Services S3 storage. There are also open source projects implementing (parts) of the S3 API to act as a drop-in replacement for AWS S3. Next to S3, there are also other object store APIs/proto- cols, such as OpenStack Swift, Ceph Rados and more. In the end it boils down to what are the needs of your ap- plications, but I would definitely keep in mind what the dif- ferent storage types can offer. If you narrowed down what er(s) is important before and while you are using their pro- storage type can be used, look into the storage software posal. As an example, if you should experience problems market to see which “additional” possibilities each soft- with the platform itself or scaling issues of, let’s say, block ware can give you for your storage needs. storage, you can directly give feedback to them about it and possibly work together with them to workout a fix for Storage in a Cloud-Native world the issue. Or provide another product which will be able to In a Cloud-Native world, where everything is dynamic, dis- scale to your current and future needs. tributed, and must be resilient, it is more important than Storage is especially problematic when it comes to ever to keep the feature set of your storage which is used scale depending on the solution you are running/using. for your customer data. It must be highly available all the Assuming your application in itself can scale without is- time, resilient to failure of a server and/or application, and sues, but the storage runs into performance issues. In most scale to the needs of your application(s). cases you can’t just add ten more storage servers and the This might seem like an easy task if your are in the cloud, problem goes away. “Zooming out” of storage as a topic to but even cloud have limits at a certain point. Though if you persistence, one must accept that there are always certain have special needs for anything in the cloud you are using, limits to persisting data. Let it be the amount, speed, or it will definitely help to talk with your cloud provider to re- consistency of data, there will always be a limit or at least solve problems. The point of talking to your cloud provid- a trade off. https://rook.io/docs/rook/v0.9/ceph-storage.html Figure 1: Rook Architecture. the cloud report 01—2019 15
Ceph’s priority will always be consistency even if speed ROOK IS A FRAMEWORK needs to be sacrificed for that. TO MAKE IT EASY TO BRING Ceph is not the only storage backend which can be run using Rook but more on that later. STORAGE BACKENDS TO RUN INSIDE OF KUBERNETES Rook Kubernetes integration In Kubernetes you can consume storage for your ap- plications, through these Kubernetes objects: Per- sistentVolumeClaim, PersistentVolume and StorageClass. Each of these objects has their own A good example for such scaling limits is Facebook. To role. PersistentVolumeClaims are what users create keep it short, Facebook at one point just “admitted” that to claim/request storage for their applications. A Per- there will always be a delay during replication of data/info. sistentVolumeClaim is basically the user facing side of They accept that when a user from Germany updates his storage in Kubernetes as it is standing for a Persistent- profile that it can/will take up to 3-5 minutes before users Volume behind that. To enable users to consume storage from e.g., Seattle, USA, will be able to see those changes. easily through PersistentVolumeClaims, a Kuber- To summarize this section: Your storage should be as netes administrator should create StorageClasses. An Cloud-Native as your application. Talk with your cloud pro- administrator can create multiple StorageClasses and vider during testing and usage, keep them in the loop when also define one as a default. A StorageClass holds pa- you run into issues. Also don’t try to push limits which can’t rameters which can be “used” during the provisioning pro- be pushed right now at the current state of technology. cess by the specific storage provider/driver. You see, Rook enables you to consume storage the Kuber- What can Rook offer for your Kubernetes netes native way. The way most operators work in point of cluster? their native Kubernetes integration is to watch “simply” for Rook can turn all or selected nodes into “Ceph storage events happening to a certain selection of objects. “Events” servers”. This allows you to use “wasted” space from the are, e.g., that an object has been created, deleted, updated. nodes your Kubernetes cluster runs on. Next to “just utiliz- This allows the operator to react to certain “situations” and ing ‘wasted’ storage”, you don’t need to buy extra storage act accordingly, e.g., when a watched object is deleted, the servers. You would just keep that in mind during planning operator could run it’s own cleanup routines or with Rook the hardware for the Kubernetes cluster (figure 1). as an example, the user creates a Ceph Cluster object and With running storage on the nodes your applications the operator begins to create all the components for the can also run on, the hyperconverged aspect is also kind of Ceph Cluster in Kubernetes. covered. You might not get more performance because of To be able to have custom objects in Kubernetes, Rook your application running on the same node as your storage uses CustomResourceDefinitions. CustomRe- with Ceph, but Ceph and Rook are aware of this and will sourceDefinitions are a Kubernetes feature which possibly look into ways of improving this. Please note that allows users to specify their own objects in their Kuber- netes clusters. These custom objects allow the user to ab- stract certain applications/tasks, e.g., with Rook the user is allowed to create one Ceph Cluster object and have the Rook Ceph operator create all the other objects (Config- Maps, Secrets, Deployments and so on) in Kubernetes. Onto the topic of how Kubernetes mounts the storage for your applications to be consumed: If you have already heard a bit about storage for containers, you may have come across CSI (Container Storage Interface). CSI is a standardized API to request storage. Instead of having to maintain drivers per storage backend in the Kubernetes project, the driver maintenance is moved to each storage backend itself, which allows faster fixes of issues with the driver. The normal process when there is an issue in an in- tree Kubernetes volume plugin is to go through the whole Kubernetes release process to get the fix out. The storage backend projects create a driver which implements the CSI 16 Fokus
driver interface/specifications, through which Kubernetes more Ceph Monitors which are the brain of the cluster, and and other platforms can the request storage. a Ceph Manager which takes care of gathering metrics and For mounting Ceph volumes in Kubernetes, currently doing other maintenance tasks. There are more compo- Rook uses the flexvolume driver which may require a small nents in a Ceph cluster, to focus on the third which is next configuration change in existing Kubernetes clusters. Us- to the Monitors and Manager the most important thing ing CSI with Rook Ceph clusters will hopefully soon be which will store your data. Ceph Object Storage Daemon possible when CSI support has been implemented in the (OSD) is the component which “talks” to a disk or directory Rook 0.9 release. Depending on how you see it flexvolume to store and serve your data. is just the mount (and unmount) part of what CSI is. The Rook Ceph operator will start and manage the Ceph monitors, Ceph Manager and Ceph OSDs for you. To Running Ceph with Rook in Kubernetes store data in so called Pools in your Ceph cluster, the user Objects in Kubernetes describe a state, e.g., a Pod object can simply create a Pool object. Again the Rook Ceph op- contains the state (info) on how a Pod must be created erator will take of it and in this create a Ceph pool. The pool (container image, command to be run, ports to be open, can then directly be consumed using a StorageClass and so on). The same applies to a Rook Ceph cluster ob- and PersistentVolumeClaims to dynamically get ject. A Rook Ceph cluster object describes the user desired PersistentVolumes provisioned for your applications. state of a Ceph Cluster in their Kubernetes cluster. Below is an example of a basic Rook Ceph Cluster object: This is how simple it is to run a Ceph cluster inside Kuber- netes and consume the storage of the Ceph cluster. Rook is more than just Ceph Rook is a framework to make it easy to bring storage back- ends to run inside of Kubernetes. The focus for Rook is to not only bringing Ceph which is for block, filesystem and ob- ject storage, but also for persistence on a more application specific level by running CockroachDB and Minio through a Rook operator. Due to have the abstraction of complex tasks/applications through CustomResourceDefini- tions in Kubernetes, it is as simple as deploying a Ceph Cluster as shown with the above code snippet. Not going into too much details about the example Rook To give a quick overview of the currently implemented Ceph Cluster object here, it will instruct the Rook Ceph storage backends besides Ceph, here is a list of the other operator to use all nodes in your cluster as long as they are storage backends: applicable (don’t have taints and/or other “restrictions” on aa Minio - Minio is an open source object storage which them). For each applicable node it will try to use all emp- implements the S3 API. ty devices and store configs and some state data in the aa CockroachDB - CockroachDB provides ultra-resilient dataDirHostPath: /var/lib/rook. SQL for global business. Rook allows you to run it through If you would search through the Kubernetes API refer- one object to ease the deployment of CockroachDB. ence you wouldn’t find this API (ceph.rok.io/v1be- aa NFS - NFS exports are provided through the NFS Ga- ta1) nor the object kind Cluster. As written in the pre- nesha server on top of arbitrary PersistentVolumeC- vious section, user defined APIs and objects (kinds) are laims. introduced by a CustomResourceDefinition to the Kubernetes API. All CustomResourceDefinition of For more information on the state and availability of each Rook are created during the installation of Rook in your storage backend, please look at “Project Status” section in Kubernetes cluster. the README file in the Rook GitHub project. Please note Creating the above object on your Kubernetes cluster, that not all storage backends here are available in Rook with the Rook Ceph operator running, would cause the version 0.8, which is at the point of writing this article the Rook Ceph operator to react to the event that an object latest version, some are currently only in the latest devel- of type / kind Clusterin the API ceph.rook.io/v1be- opment version but a 0.9 release is targeted to happen ta1 has been created. soon. Before shortly going into what the Rook Ceph operator Rook project roadmap does now, I give a quick overview about how a “standard” To give you an outlook of what can be to come up, a sum- Ceph cluster looks like. A Ceph cluster always has one or mary of the current Rook project roadmap: the cloud report 01—2019 17
aa Further stabilization for the CustomResourceDefinitions aa Twitter - @rook_io specifications and managing/orchestration logic: aa Slack - https://rook-io.slack.com/ aa Ceph aa For conferences and meetups: Checkout the #confer- aa CockroachDB ences Channel aa Minio aa Contribute to Rook: aa NFS aa https://github.com/rook/rook aa Dynamic provisioning of filesystem storage for Ceph. aa https://rook.io/ aa Decoupling the Ceph version from Rook to allow the aa Forums - https://groups.google.com/forum/#!forum/ users to run “any” Ceph version. rook-dev aa Simpler and better disk management to allow adding, re- aa Community Meetings moving and replacing disks in Rook Ceph cluster. aa Adding Cassandra as a new storage provider For questions just hop on the Rook.io Slack and ask in the aa Object Storage user CustomResourceDefinition, to #general channel. allow managing users by creating, deleting and modify- ing objects in Kubernetes. There is more to come for a more detailed roadmap, please Alexander Trost look at the roadmap file in the Rook GitHub project. Rook Maintainer and DevOps Engineer alexander@cloudibility.io How to get involved? If you are interested in Rook, don’t hesitate to connect with the Rook community and project using the below ways. Extend your cloud capabilities. cloud.netapp.com 18 Fokus
Ceph Day Berlin 2018 Berlin. Im CityCube Berlin wurde im Veranstaltung mit einem Talk über Vorfeld der OpenStack Summit ein the State of Ceph und verkündete bei Tag, am 12.11.2018, dem alleinigen dieser Gelegenheit auch die Grün- Thema Ceph gewidmet. Cloudibi- dung der Ceph Foundation, welche lity war mit drei Personen ebenfalls als direkter Fonds unter der Linux dabei, wenn auch nur als Besucher. Foundation organisiert ist. Aufgabe Der Ceph Day Berlin war eine ganz- ist die finanzielle Unterstützung der tägige Veranstaltung, die sich der Ceph-Projektgemeinschaft und dient Weitergabe der transformativen Kraft als Forum für Koordinierungsaktivi- von Ceph und der Förderung der pul- täten und Investitionen, das den tech- sierenden Ceph-Gemeinschaft ge- nischen Teams Leitlinien für die Road- widmet hat und von dieser und ihren map und die Weiterentwicklung der Freunden ausgerichtet wurde. Ceph Projektverwaltung bietet. ist ein skalierbares, Open-Source- In weiteren Vorträgen wurde unter und Software-definiertes Speicher- anderem von Ceph-Anwendern wie: system, welches die Wirtschaftlichkeit MeerKAT radio telescope; SKA Afri- und das Management von Daten- ca, Bennett SARAO; CERN, Dan van speichern für Unternehmen grund- der Ster; Human Brain Project, Stack legend verbessern kann. HPC, Stig Telfer und SWITCHengines, aa Martin Verges, croit Simon Leinen, vorgestellt, was diese aa Aaron Joue, Ambedded Es waren schätzungsweise 350 Teil- aus ihren Implementierungen gelernt Technology nehmer aus verschiedensten Sprach- haben und wie sie damit arbeiten. aa Tom Barron, Red Hat räumen an diesem schönen Herbst- Es kamen aber auch Partner bzw. tag anwesend und widmeten sich fast Kunden von Ceph zur Sprache wie: Es war eine gelungene Veranstaltung. ausschließlich den Vorträgen und Ge- aa Phil Straw, SoftIron Die Ceph Days werden von der sprächen untereinander in den Pau- aa Robert Sander, Heinlein Support Ceph-Community (und Freunden) in sen und am Ende der Veranstaltung. aa Jeremy Wei, Prophetstor ausgewählten Städten auf der ganzen Sage Weil, Red Hat, Gründer und aa Sebastian Wagner und Lenz Welt veranstaltet und dienen der För- Chefarchitekt von Ceph eröffnete die Grimmer, SUSE derung dieser lebendigen Gemein- schaft. Neben Ceph-Experten, Commu- nity-Mitgliedern und Anbietern hören Sie auch von Produktionsanwendern von Ceph, die Ihnen vermitteln, was diese aus ihren Implementierungen gelernt haben. Anna Filipiak the cloud report 01—2019 19
PROJECT DELIVERY Mind- und Skill-Set für Digital Leadership Der Prozess der digitalen Trans- auch die erforderlichen Kompetenz- werden. Dadurch entstehen neue formation beschäftigt derzeit den bereiche, die sich daraus für Projekt- Zusammenarbeitsmodelle und Industriestandort D eutschland; zahl- leiterinnen ergeben. Herangehensweisen, die parallel zur reiche Programm- und Projekt- technischen Migration in Cloud-Um- leiterinnen1 arbeiten intensiv Enabling Technology felder im Unternehmen verankert daran, einzelne Produkte oder An- werden. Der Wandel im Kontext einer wendungen in neuen, digitalen Kon- Spitzentechnologien wie Cloud Com- Enabling Technology ist nicht nur ein texten zu etablieren. Die Allgegen- puting eröffnen neue Möglichkeiten, technischer Wandel, sondern auch wärtigkeit des Begriffs wirkt auf viele Arbeit zu organisieren, Innovatio- und vor allem ein kultureller Wandel Betrachter ermüdend. Letztlich ist sie nen durchzuführen, Produkte her- im Unternehmen. aber ein Beleg für die Vielschichtig- zustellen und Kunden zu bedienen. keit von technischen, wirtschaft- Die scheinbar unbegrenzte Elastizität Digital Leadership lichen und organisatorischen und Flexibilität der technischen Infra- Veränderungsprozessen, die Projekt- strukturen erschüttern traditionelle Traditionelle Führungskonzepte fo- leiter und Mitarbeiterinnen als digita- Grenzen des unternehmerisch Mög- kussierten die technische Kom- le Transformation erleben. lichen. Cloud-Umgebungen schaf- petenz der Projektleiterinnen. Der fen die Voraussetzungen und den Projekterfolg lag vor allem in der Um diese Komplexität wirksam zu Gestaltungsraum für hochinnovative substanziellen Steuerungsfähigkeit gestalten, brauchen Projektleiter ein Prozesse und Produktlösungen, die begründet. Die wirkungsvolle Imple- adäquates Skill-Set, das sie b efähigt, bisher nicht wirtschaftlich realisierbar mentierung von Enabling Techno- den Transformationsprozess nicht waren. logies wie Cloud erfordert jedoch ein nur technisch zu organisieren, son- beweglicheres Mind- und Skill-Set. dern auch die Mitarbeiter dafür zu ge- Um diesen Möglichkeitsraum zum Nicht die Planungs- und Steuerungs- winnen. Anhand des Cloud Compu- eigenen Wettbewerbsvorteil zu arbeit steht im Mittelpunkt, son- ting werden in diesem Beitrag sowohl nutzen, müssen alle Abteilungen dern die kommunikative Einbindung das der Technologie innewohnende gleichermaßen in die Gestaltung aller beteiligten Kollegen. Allein mit Veränderungspotenzial skizziert, als der Cloud-Umgebung eingebunden der Einhaltung von Terminplänen kann der Projekterfolg nicht sicher- gestellt werden. Ein wirtschaftlicher Mehrwert für das Unternehmen wird nicht durch das Abhaken von An- forderungsdokumenten oder Beauf- tragungen erreicht. Stattdessen müs- DIGITALE PROJEKTLEITER sen digital versierte Projektleiter alle Beteiligten dazu befähigen, die ver- VERWANDELN LIMITIERUNG IN änderte Technologie auch in neuen Kontexten zielführend und wirksam EINEN POSITIVEN IMPULS zu nutzen. 1 In diesem Artikel geben wir jeweils nur eine Form von weiblichen oder männlichen Bezeichnungen wieder, aber selbstverständlich denken wir uns alle mit: weiblich, männlich, divers. 20 Project Delivery
Time Time Scope Scope Energetic Curiosity Cost Cost In einem Umfeld sich rasch ver- ändernden, spezialisierten Wissens verfügen auch erfahrene Führungs- persönlichkeiten über eine be- Time Time Scope schränkte Wissensbasis. Digita- Scope Cost le Projektleiter verwandeln diese Cost Limitierung in einen positiven Im- puls des Teilens von Wissen und Ver- antwortung. Sie schätzen kritische Fragen höher als unkritische Ant- worten; sie sind skeptisch gegen- über unverrückbaren Wahrheiten. Sie schaffen ein Umfeld, in dem alle Projektbeteiligten neue Antworten nal Project Leadership Traditional Project Leadership Digital Project Leadership Digital Project Leadership entwickeln und innovative Lösungen formulieren können. Anpassungsfähigkeit gilt auch für Führungsqualitäten Digitale Transformation ist ein in- Damit Enabling Technologies ihre Technologie ist verständlich. Einige zwischen weitläufig verwendeter Wirkmächtigkeit entfalten können, Kollegen mögen sogar grundsätzlich Sammelbegriff, der sehr ver- müssen Projektleiterinnen die be- bezweifeln, dass eine zunehmende schiedene Veränderungsprozesse teiligten Mitarbeiter zu eigenstädi- Flexibilität der Geschäftsprozesse subsumiert. Obgleich die Einführung gen Gestaltern und selbstbewussten wünschenswert oder realisierbar von Cloud-Umgebungen eine spezi- Nutzern der Technologie be- sei. Digitale Projektleiter reflek- fische Technologie beinhaltet, rea- fähigen. Dabei helfen ihnen persön- tieren dieses Spannungsfeld und lisieren sich die einzelnen Projek- liche Stärken in den folgenden vier binden auch die skeptischen Mit- te in einem breiten Spannungsfeld Kompetenzbereichen: arbeiterinnen in die Kommunika- wirtschaftlicher und organisatori- tion ein. Gleichzeitig treiben sie den scher Rahmenbedingungen. Ent- Inspire to Grow Veränderungsprozess entschlossen sprechend variabel müssen auch Transformationsprozesse in Cloud- voran. Ihre Energie reißt das Team die Kompetenzbereiche digitaler Um gebungen sind komplexe Auf- und die Organisation mit. Sie er- Projektleiterinnen konzipiert werden. gaben in einem dynamischen Arbeits- klären unermüdlich die Bedeutung Damit Unternehmen die Chancen und Wissensumfeld. Die beteiligten und Bedeutsamkeit des Projektes. von Enabling Technologies individu- Kolleginnen, nicht nur in den IT-Ab- Ihre Offenheit und unermüdliche ell realisieren können, gibt es kein sta- teilungen, müssen mit grundsätzlich Kommunikation gerade mit den tisches One-Size-Fits-All Führungs- neuen Konzepten und Applikationen Skeptikern schafft eine belastbare modell. Wer die Ambiguität des oben umgehen lernen. Projektleiterinnen Vertrauensbasis. skizzierten Kompetenzmodells an- inspirieren das Team zum Lernen. Sie nimmt und stattdessen fragt: “Wel- unterstützen das Team auf diesem Focused Vision che konkreten Fähigkeiten sind in persönlichen Wachstumspfad und Komplexe Transformationsprozesse dem konkreten Projekt in einer kon- agieren als Coaches, Mentoren und können nicht en detail geplant wer- kreten Projektphase am wirkungs- Lehrer. den. Viele Unwägbarkeiten und vollsten?”, der ist auf dem richtigen Abhängigkeiten beeinflussen den Weg zum Digital Leadership. Trustworthy Determination Projektverlauf. Digitale Projekt- Die Migration in Cloud-Umfelder leiterinnen akzeptieren diese Un- Felix Evert und die Entwicklung neuer Zu- sicherheit. Sie haben eine klare Vor- Head of Consulting felix@cloudibility.io sammenarbeitsmodelle sind tief- stellung von dem Ergebnis. Sie setzen greifende Veränderungen in einer eine klare Richtung und agieren auf Organisation. Eine gewisse Skep- dem Weg flexibel und anpassungs- sis gegenüber der anspruchsvollen fähig. the cloud report 01—2019 21
Sie können auch lesen