WHITE PAPER OPEN TELEKOM CLOUD - DIE EUROPÄISCHE IAAS-ALTERNATIVE
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
White Paper Open Telekom Cloud Inhalt MANAGEMENT SUMMARY 3 LEINEN LOS – KURS RICHTUNG DIGITALISIERUNG 4 OPENSTACK ALS TECHNISCHE BASIS 8 OPEN TELEKOM CLOUD 10 EINSATZBEISPIELE 15 AUSBLICK 18 2
White Paper Open Telekom Cloud Management Summary Der “Schritt in die Cloud” ist längst nicht mehr der Aufreger, der er vor Jahren war. Längst haben Unternehmen die immensen Potenziale des anfänglich als Spielerei belächelten Sourcing-Ansatzes erkannt. Gleichzeitig ist Cloud Computing mit der Geschwindigkeit eines digitalen Kindes erwachsen geworden. Die Diskussionen sind reifer geworden und drehen sich nun stärker um das konkrete Ausloten von geschäftlichen Potenzialen, deren technische Realisierung und Cloud-Strategien. Auf der Agenda der öffentlichen Diskussion rund um Cloud Computing Zum dritten hat sich auch bezüglich der Aussage: „Die Cloud ist immer stehen momentan vier Tagesordnungspunkte. Hartnäckig halten sich günstiger“ ein realistischer Blick durchgesetzt. Intransparenz, eine Viel- Sicherheitsvorbehalte als Haupthindernis für den Einsatz. Beim Thema zahl kostenpflichtiger Zusatzservices, allen voran die Netzkosten – eine Sicherheit fließen aber verschiedene Facetten ineinander – nicht nur die ganzheitliche Kostenbetrachtung ist angesagt. Clouds zeigen ihre Vor- subjektive Wahrnehmung des geringeren Einflusses der IT-Verantwort- teile vor allem in temporären Einsatzszenarien oder dynamischem lichen oder technische Aspekte, sondern auch – und das viel valider – Betrieb. Mitunter nehmen Kunden die höheren Kosten der Cloud auch Konsequenzen für die Unternehmens-Compliance, beispielsweise durch bewusst in Kauf, um sich vom Infrastrukturmanagement zu entlasten Datenschutz-Anforderungen. Europäische Unternehmen fordern daher oder eine höhere IT-Flexibilität zu erzielen. von Cloud-Anbietern Verträge nach nationalem Recht und die Einhal- tung nationaler und europäischer Datenschutz-Richtlinien. Durch die Zuletzt sehen Cloud-Kunden auch klarer die Eventualität eines Vendor EU-DSGVO (EU-Datenschutzgrundverordnung, Mai 2018) erhöhte sich Lock-in, wenn sie auf proprietäre Plattformen setzen. der Stellenwert des Datenschutzes für die Daten europäischer Bürger. Europäischer Datenschutz wird dadurch auch für EU-externe Cloud- In diese Situation hinein bietet die Deutsche Telekom mit der Open Anbieter verbindlich, wenn sie Daten von EU-Bürgern verarbeiten. Telekom Cloud seit März 2016 eine Cloud für den europäischen Markt. Ein Public IaaS durch den deutschen Anbieter mit eingebauter Com- Eine zweite Anforderung lautet: Anwenderfreundliche Administration pliance, dabei gleichzeitig auf OpenStack als offenem Standard, einfach der Dienste – nach ersten Erfahrungen mit existierenden Plattformen zu nutzen und mit marktüblichen Public-Cloud-Preisen. Dieses White zeigt sich, dass viele der Aufgaben beim Management der Cloud beim Paper beschreibt die Situation allgemein rund um Public Cloud mit Anwender hängenbleiben und entsprechendes Know-how das A und O dem Fokus auf Infrastructure as a Service, bietet einen Blick in die für den Umgang mit einer komplexen und unübersichtlichen Tool- Architektur der Open Telekom Cloud und skizziert einige Beispiele für Umgebung ist. Den Kundenservice für die Cloud-Services verschieben deren Einsatz. Anbieter gerne an den Anwender. Ebenso wie technische und prozes- suale Integrationsfragen. Cloud bleibt zum großen Teil ein „Do-it-yourself“- Baukasten. 3
White Paper Open Telekom Cloud Leinen los – Kurs Richtung Digitalisierung Schreckgespenst, Disruptor, Heilsbringer – die Bewertung der Digitali- Digitalisierung als Treiber der Public-Cloud-Adoption sierung variiert je nach Blickwinkel deutlich. Was aber unstrittig ist: Kaum ein Unternehmen kommt noch an der Digitalisierung vorbei. heute 2020 Längst sind sie bzw. ihre Auswirkungen Bestandteil der Agenden von digital transformation 63% 62% Geschäftsführungen, die ihr Unternehmen für die Zukunft aufstellen. Wenn nur die Hälfte dessen wahr wird, was verschiedene Studien in it agility 62% 64% Aussicht stellen, steht die Gesellschaft vor einem umfassenden dev ops 58% 57% Umbruch, der das Bild der Welt und die geltenden Regeln des Business mobility 55% 59% dramatisch verändern wird. ai/machine learning 50% 66% iot 45% 58% Abb. 1. Wie stark beeinflussen diese Anwendungsszenarien Ihr Engagement in der Public Cloud?1 Digitalisierung hat viele – technische und geschäftliche – Facetten. Auf der geschäftlichen Seite sind dies beispielsweise Datenanalysen für intensivere Einblicke in Markt und Kunden als Basis für bessere Ent- scheidungen, Optimierung der Customer Experience und der Buyers‘ Journey sowie schlankere und effizientere Unternehmensprozesse. Auf der technischen Ebene sind es erhöhter Vernetzungsgrad durch mobile Endgeräte und das Universum der Dinge, steigendes Datenvolumen und entsprechende Zunahme des Datenverkehrs. Insgesamt werden Business und Menschen enger zusammenwachsen und Time to Market wird mehr denn je zu einer kritischen Kenngröße für Erfolg und Misserfolg im Business werden. Neben den notwendigen Netzressourcen wird es aber, um diese Zukunft zu bauen, vor allem auf Rechen- und Speicherkapazitäten ankommen. Und diese müssen kostengünstig, zuverlässig und flexibel verfügt werden können. Mit anderen Worten: Ohne Cloud Computing ist diese Zukunft nicht möglich. [1] Cloud Vision 2020: The Future of Cloud Study, 2018, Logicmonitor 4
White Paper Open Telekom Cloud Cloud im Aufschwung In der Tat wird die Rolle der Cloud im Windschatten vernetzter „Dinge“, IoT, Big Data und künstliche zunehmender Mobilität, künstlicher Intelligenz, steigender Collaboration Intelligenz brauchen Clouds etc. immer wichtiger. Die Cloud wird zur Basis für neue Geschäfts- modelle und wird bestehende Sourcing-Modelle nach und nach ablösen. Sie hat rund zehn Jahre gebraucht, um traditionelle Sourcing-Modelle Einer der Haupttreiber für das Wachstum der Public Cloud ist das abzulösen. Untersuchungen der 451 Group zeigen, dass 2017 der Internet of Things. Sowohl für die Verwaltung der Endgeräte und Tipping Point erreicht war: Im Business-Umfeld werden 50 Prozent aller deren Absicherung als auch die Auswertung der gelieferten Daten Workloads in Clouds verarbeitet. 2019 wird das Pendel weiter in (Big Data) ist Public Cloud eine passende Wahl. Und mit dem Richtung Cloud schwingen2. Die in Abb.1 referenzierte Studie von Logic Internet of Things wächst auch die Cloud. Ende 2017 fand Gart- Monitor erwartet, dass 83 Prozent aller Enterprise Workloads 2020 in der ner über 8 Milliarden vernetzte Dinge weltweit und prognostizierte Cloud laufen werden. bis 2021 ein Wachstum auf 25 Milliarden7. Bain sieht nicht nur ein starkes Wachstum für den IoT-Markt auf 530 Mrd. US-Dollar 2021, Während bislang die private Cloud das Maß der Dinge im Business- sondern stellt auch eine enge Verbindung fest: Die Cloud Service Umfeld war, zeigen aktuelle Studien auch für Europa einen Schwenk in Provider spielen eine einflussreiche Rolle als Anbieter von IoT- Richtung hybrider und Public Clouds. Im Sommer 2018 taxierte Gart- Lösungen 8. Exemplarisch sieht Zion Research einen starken ner 3 den jährlichen weltweiten Umsatz mit Public Cloud Services 2017 Anstieg der Cloud-Nutzung für das Industrial-IoT9. auf 145 Mrd. US-Dollar (und liegt damit unter seinen vorangegangenen Prognosen). Das IaaS-Segment wuchs 2017 um knapp 30 Prozent auf Big-Data-Analysen ermöglichen datengetriebene Geschäftsmodelle 23,5 Mrd. US-Dollar weltweit 4. Für 2018 erwarten die Analysten einen und bessere Entscheidungen. Derartige Analyse-Workloads sind Public-Cloud-Markt von 176 Mrd. US-Dollar. Die Anstiege zeigen: Unter- ebenfalls perfekte temporäre Szenarien für einen Cloud-Einsatz. nehmen haben ein steigendes Bedürfnis nach Public-Cloud-Diensten, Brian Hopkins von Forrester weist darauf hin, dass die Cloud- um ihre Visionen zu realisieren. Nutzung (via Subskription) für Big-Data-Analysen in der Cloud mehr als 7-mal so stark wächst wie die On-Premise-Nutzung10 und Die verschiedenen Servicemodelle innerhalb der Cloud, Infrastructure führt drei Gründe für Big-Data-Auswertungen in der Cloud an: Die „ as a Service (IaaS), Platform as a Service (PaaS) und Software as a ständig fallenden Kosten für den Einsatz von Cloud-Ressourcen, die Service (SaaS), bieten sehr unterschiedliche Einsatz- und Einführungs- Lizenzen für On-Premise-Tools und die Innovationsgeschwindigkeit szenarien und richten sich an unterschiedliche Klientelen. IaaS ist Cloud der Public Cloud, die neue Technologien wie AI und Quanten- Computing in seiner „urtümlichsten“ Form: die dynamische und bedarfs- computing schnell adaptiert. gerechte Bereitstellung von „roher“ Rechen- und Speicherleistung. Die Ressourcen werden nutzungsabhängig abgerechnet, was das schnelle Ausprobieren neuer (digitaler oder digital unterstützter) Geschäftsideen Enterprise-Architekten müssen erkennen, ohne große Investitionsrisiken ermöglicht. Die Cloud wird damit zum dass die Kombination von Big Data und Fundament für das zukünftige Geschäft. Public Cloud der Meteor ist, der digitale Dinosaurier auslöscht” 11 Wegen der einfachen Nutzung und Einführbarkeit steht SaaS für den Löwenanteil des Cloud-Marktes, aber auch PaaS und IaaS erzielen nennenswerte Marktvolumina: IDC5 sieht 2018 den weltweiten Markt für Diese Argumente können genauso auf den Betrieb von Artificial- Public Cloud Computing bei 160 Mrd. US-Dollar. 82,7 Mrd. entfallen auf Intelligence-Lösungen in der Cloud übertragen werden. McKinsey12 SaaS, 24,6 Mrd. US-Dollar auf IaaS. Wie die Cloud wächst, zeigt sich konstatiert, dass AIs traditionell in der Cloud trainiert werden. auch an einer indirekten Komponente, dem Blick auf den Datenverkehr Technavio13 sieht in der Nutzung Cloud-basierter Lösungen für in Cloud-Rechenzentren: Von 2016 bis 2021 wird er sich mehr als ver- künstliche Intelligenz einen der maßgeblichen Trends für die dreifachen (von 6 auf 19,5 Exabyte p.a.). Cisco erwartet jährliche Wachs- Industrie weltweit (2018 – 2022). tumsraten von über 26 Prozent – während traditionelle Rechenzentren nur um knapp 5 Prozent zulegen 6. [2] By 2019, 60% of IT workloads will run in the cloud, 451 Research, Kaitlin Buckley, 2017 [7] Gartner, Forecast: Internet of Things – Endpoints and Associated Services, [3] Gartner Forecasts Worldwide Public Cloud Revenue to Grow 17.3 Percent in 2019, worldwide, 2017, Peter Middleton, Tracy Tsai et al., 2017 Gartner 2018 [8] Unlocking Opportunities in the Internet of Things, Ann Bosche, et al., Bain, 2018 [4] Gartner Says Worldwide IaaS Public Cloud Services Market Grew 29.5 Percent in 2017, [9] Zion Market Research Cloud Computing In Industrial IoT Market , Global Industry Gartner, 2018 Analysis, Size, Share, Growth, Trends, and Forecast, 2017 – 2026, 2018 [5] Worldwide Public Cloud Services Spending Forecast to Reach $160 Billion in 2018, [10] Move Big Data To The Public Cloud With An Insight PaaS, Forrester, Brian Hopkins, 2017 According to IDC, IDC, 2018 [11] Move your Big Data into the Public Cloud, Forrester, Brian Hopkins, 2017 [6] Cisco Global Cloud Index: Forecast and Methodology, 2016–2021 White Paper, [12] Artificial intelligence: The time to act is now, McKinsey, Gaurav Batra et al., 2018 aktualisiert November 2018 [13] Global Artificial Intelligence Market in the Industrial Sector 2018-2022, technavio, 2018 5
White Paper Open Telekom Cloud Reine Infrastruktur-Dienste adressieren in erster Linie zwei Zielgruppen – Fülle denkbarer Einsatzszenarien vor allem aus dem Umfeld der IT: Strategische Entscheider wie IT- Fernab der Diskussion um Sicherheit und Compliance gibt es gerade im Verantwortliche und CIOs, die Cloud Computing ihrem Sourcing-Mix Business-Umfeld (B2B und B2C) theoretisch eine Fülle von Einsatz- hinzufügen und Entwickler/Tester, die Applikationen bereitstellen. Dieser szenarien auch für IaaS. Die Lösungen lassen sich dabei entlang der Einsatz ist nicht eine Frage der Unternehmensgröße, sondern vielmehr adressierten Nutzer in drei Rubriken ordnen: der Kompetenz der Handelnden im Umgang mit Cloud Services. Weitere spezielle Zielgruppen für IaaS sind Independent Software Vendors (ISV) 1. Infrastruktur-Dienste wie virtuelle Rechenzentren und Application bzw. SaaS-Provider und System-Integratoren, die IaaS-Ressourcen für Hosting adressieren primär Verantwortliche für Rechenzentren, File kundenspezifische Lösungen erschließen. Sharing und Backups auch zunehmend Fachbereichs-Verantwortliche. 2. In den Bereich der entwicklerzentrierten Dienste fallen Test und Vorbehalte gegen den Cloud-Einsatz Entwicklung, mobile Apps, Internet of Things und Big Data bzw. Unter den Vorbehalten gegen die Cloud rangiert Sicherheit in allen ihren Business Analytics. Facetten – unabhängig vom Rechts- oder Kulturraum – auf vorderen 3. Für Endnutzer-orientierte Dienste agieren IaaS-Ressourcen im Hinter- Plätzen. In der Studie von Logicmonitor geben 66 Prozent der Cloud- grund. Sie werden als Service nicht sichtbar, sondern ermöglichen den Nutzer an, dass für sie Sicherheit immer noch eines der Haupthinder- Betrieb von Webseiten, Portalen oder den Einsatz für eCommerce oder nisse beim Cloud-Einsatz ist. Digital Marketing. Auch Media & Content-Szenarien sind hier zu nennen. Technisch bieten die meisten Provider ein hohes Maß an Sicherheit. Allerdings bleiben für europäische Unternehmen Compliance-Fragen (wie die Studie von Logicmonitor bestätigt) weiterhin offen. Zum einen verbergen sich hinter Compliance-Fragen häufig die Einhaltung der DSGVO im Hinblick auf personenbezogene Daten, zum anderen die Ver- Einsatzbeispiel IT-Security tragsgestaltung nach nationalem Recht. Der EU-US-Privacy-Shield bietet seit 1. August 2016 wieder eine gesetzliche Für zeitlich befristete Einsatzszenarien sind dynamische IT-Kapazi- Grundlage für den Datenaustausch zwischen Europa und den USA. Aber täten perfekt geeignet. KORAMIS, ein Anbieter für IT-Sicherheit in da die Kritik am Privacy Shield nicht abreißt, ist nicht auszuschließen, der Prozessleittechnik, Anlagensteuerung und Industriesoftware, dass auch diese neue Angemessenheitsentscheidung der Kommission nutzt Public-Cloud-Ressourcen für seine Projekte. Das Saarbrücker vom EuGH gekippt wird. Aktuelle Entwicklungen in den USA14 deuten Unternehmen sucht, findet und schließt Lücken in der IT seiner zudem darauf hin, dass das Datenschutzniveau – insbesondere auch für Kunden, beispielsweise Chemieparks, Verkehrsbetriebe oder europäische Nutzer – reduziert wird. In Europa hingegen hebt die EU- Smart Factories. In Laborszenarien werden die Infrastrukturen der DSGVO das Datenschutzniveau auf ein einheitlich hohes Niveau, wie es Kunden oder neue Softwareprodukte, etwa zur Home Automation, in Deutschland seit Längerem gilt. Die Einhaltung der Vorgaben wird von auf Sicherheitsschwachstellen geprüft. allen Unternehmen verlangt, die personenbezogene Daten verarbeiten – von Auftraggebern ebenso wie von Auftragnehmern, selbst wenn sie Mithilfe bedarfsgerechter IT-Ressourcen bildet KORAMIS die Anla- nicht im europäischen Rechtsraum ansässig sind15. gen in der Cloud ab. Die Anschaffung eigener Hardware entfällt vollkommen. Da sich die Tests parallelisieren lassen, können die Experten und Analysten sind sich darin einig, dass US-amerikanische Analysezeiten durch Einsatz weiterer virtueller Server verkürzt werden. Anbieter den Public-IaaS-Markt dominieren. Neben Amazon Web Servi- Mit der Cloud können heute Aufgaben in Minuten realisiert werden, ces sehen die Analysten Microsoft Azure und Google Cloud Platform als die früher Tage oder Wochen dauerten. Im Basisbetrieb nutzt der maßgebliche Player16. Gartner sieht ebenfalls ein US-dominiertes Sicherheitsanbieter 16 virtuelle Server und vier TB an Speicher, in Oligopol und mit Amazon als Innovations- und Marktführer, Microsoft Projekten steigt die Nutzung kurzfristig auf bis zu 250 virtuelle und Google ein IaaS-Anbieter-Triumvirat. Alibaba taucht zusehends häu- Server an. Aus der Cloud lassen sich die zusätzlichen Ressourcen figer als Herausforderer in Analystenberichten auf. in Minutenschnelle beziehen. Auf diese Bereitstellungsmethode setzt KORAMIS auch bei Schulungen: Früher fuhr ein Truck mit Analyst Paul Miller von Forrester hält fest, dass der größere Teil der euro- Hardware vor, heute reicht eine breitbandige Internetleitung. päische Großunternehmen trotz dieser Vorbehalte dennoch Public Clouds nutzt17. Zwei Hauptgründe dafür sind die einfache Verfügbarkeit Dass die produktionskritischen Daten in einer deutschen Cloud ohne weitere technische oder organisatorische Voraussetzungen und die verarbeitet werden, ist ein wichtiges Argument gegenüber den nutzungsbezogene, dynamische Abrechnung, die Public Cloud zu einer Kunden von KORAMIS, die den Einsatz einer US-Cloud ablehnen. interessanten Sourcing-Alternative machen. [14] Trump has officially ended federal online privacy rules, Recode, 2017 [16] Who are the leading providers of cloud services? Raconteur.net, 2018 [15] EU-Datenschutz-Grundverordnung: Das sind die Neuerungen, [17] Public Cloud Reaches European Mainstream, but Brexit Complicates UK Picture, Astrid Ackermann, 2016 Forrester, Paul Miller, 2018 6
White Paper Open Telekom Cloud Generelle Nutzungsszenarien für IaaS top use cases fÜr iaas-dienste und -plattformen websites & portale ecommerce digital marketing media & content Website Hosting Shop Hosting Online Kampagnen Media Storage Portal Hosting Market Place Integration Email-Kampagnen Content Delivery endkunden- Content Delivery Content Delivery Messaging Content Processing fokussiert Web Analytics Shop Analytics Content Delivery Machine Learning APM APM Machine Learning development & tests mobile apps iot big data & analytics App Testing App Testing IoT Endpoint Management Database-as-a-Service App Container App Analytics/APM Sensor Data Elastic Datawarehouse Mobile Backends Mobile Backends Processing & Analytics Hadoop Hosting entwickler- Machine Learning Messaging/Push Machine Learning Sensor Data Analytics orientiert API Management Content Delivery Messaging API Management Identity Management IoT Identity/Security HPC virtual datacenter application hosting backup & archiving file share & messaging Hybrid Cloud SAP Hosting Backup File Share Private Cloud CRM Hosting Disaster Recovery Messaging Autoscaling ECM Hosting Archiving Email Hosting infrastuktur- Identity Management Sharepoint Hosting Email Archiving Sharepoint Hosting zentriert Vitual Desktop Abb. 2. IaaS ist vielseitig einsetzbar und verschiedene Nutzergruppen können profitieren. Quelle: Crisp Research Weitere Herausforderungen beim Einsatz von IaaS Vielzahl von Unternehmen nicht die Kompetenzen an Bord, um IaaS „auf Neben den bereits beschriebenen Problemen im Hinblick auf Compliance- Knopfdruck“ den gewachsenen IT-Infrastrukturen hinzuzufügen. Dann Anforderungen zeigen sich beim praktischen Einsatz von IaaS häufig wird aus der Einführung ein umfangreiches IT-Projekt, das die erwartete aber noch weitere Herausforderungen, die Unternehmen bewältigen „neue Leichtigkeit der IT“ vermissen lässt. Dagegen spielt die Lokalisierung müssen, um Public IaaS nutzbringend einzusetzen. Denn das Angebot der vorhandenen Informationsmaterialien auf europäische Sprachen der führenden IaaS-Provider fokussiert auf Standardleistungen. Das außer Englisch nur eine untergeordnete Rolle. reine IaaS wird dabei durch Self-Service-Management-Leistungen ange- reichert (die mitunter für weitere, unerwartete Kosten sorgen), aber eine Neben den Zusatzkosten für Netz- und Managementdienste ist es vor Beratung für die Einführung gibt es genauso wenig wie einen Blick auf allem der Vendor Lock-in, der Anwender-Unternehmen eine bewusste die notwendigen Netz-Kontingente, die notwendig sind, um das IaaS zu strategische Entscheidung aufzwingt für eine möglicherweise proprie- nutzen (was abermals einen bedeutenden Kostenblock verursachen kann). täre Plattform. Diese sollte umso ausführlicher diskutiert werden, wenn absehbar ist, dass der Anbieter die Plattform nach eigenen Gesichts- Auch die Integration der neuen Services in bestehende IT-Landschaf- punkten weiterentwickelt, ohne dabei die Bedürfnisse seiner Nutzer ein- ten und die Transformation bestehender Workloads gehören nicht zu zubeziehen. Besonders hohe Aufwände entstehen für den späteren angebotenen Leistungen. Um derartige IaaS-Vorhaben erfolgreich abzu- Rücktransfer großer Datenmengen, die sich in den Speichersystemen schließen, ist also entweder die Einbindung einer dritten Partei mit dem des Anbieters angesammelt haben. entsprechenden Know-how nötig oder aber das Kundenunternehmen baut diese Kompetenzen im eigenen Haus auf. Derzeit jedoch hat eine 7
White Paper Open Telekom Cloud OpenStack als technische Basis Technische Abhängigkeiten lassen sich deutlich reduzieren, wenn Analysten erwarten, dass OpenStack weiteren Rückenwind erhält, Anwender auf eine Open-Source-Plattform setzen. OpenStack hat sich wenn Anbieter eigene Distributionen auf den Markt bringen, die durch hierfür im Cloud-Umfeld durchgesetzt. OpenStack hat mittlerweile einen zusätzliche Management-Funktionalitäten einen Teil des Know-how- hohen Reifegrad erreicht und könnte sich – getrieben von zahlreichen Defizits in den Unternehmen auffangen22. großen Industrieunternehmen – als der lange gesuchte Standard für die Cloud erweisen. OpenStack-Komponenten Das OpenStack-Projekt startete als eine Kooperation von Rackspace OpenStack besteht aus einer Bibliothek von Modulen, die verschiedene mit der NASA18. Mittlerweile wird die Community von über 600 Unter- Aufgaben für den Aufbau und das Management einer Cloud übernehmen. nehmen und 93.000 Menschen getragen (Stand Oktober 2018). Open- Verschiedene Clouds auf OpenStack-Basis können dadurch variieren, Stack wird je nach Quelle, als Cloud Management Framework, Cloud dass einige Module nicht zum Einsatz kommen oder durch Alternativ- Computing Software Platform oder schlicht als Cloud-Betriebssystem Lösungen ersetzt werden. Häufig geschieht dies bei der Netzwerk-Kom- bezeichnet. Openstack.org selbst beschreibt sein Produkt als Software, ponente Neutron. Allerdings gibt es einige Kernmodule, die unerlässlich die große Pools von Rechen-, Speicher- und Netzwerk-Ressourcen kontrol- sind für jede OpenStack-Installation. Alle Komponenten von OpenStack liert. Sie werden gemanagt über ein Dashboard oder über die Open- arbeiten mit Service-APIs auf Basis von Standard-REST-Interfaces. Stack API (Application Programming Interface)19. 2010 erschien die erste Version Austin, im August 2018 wurde Rocky als aktuelle Version publiziert20. OpenStack besteht aus verschiedenen Komponenten, die Computing-Ressourcen virtualisieren, Storage bereit- stellen und die Verbindung dieser in virtuellen Netzwerken organisieren. Ein weiteres Set von Komponenten stellt den Nutzern Management- Funktionalitäten bereit. Die Open Source Software unterstützt verschiedene Hypervisoren21. OpenStack erweist sich damit als eine kostengünstige Alternative zu den bislang etablierten (lizenzpflichtigen) Virtualisierungs- und Cloud-Management-Methoden. Laut Analysten kommen derartige Open-Source-Lösungen – gerade im Cloud-Umfeld – trotz der Wartungs- verträge und Software-Update-Projekte Unternehmen unter dem Strich billiger als proprietäre Lösungen. OpenStack verfügt über eine der am schnellsten wachsenden Open Source Communities weltweit. Die Software kann sowohl für den Aufbau von Public als auch Private Clouds eingesetzt werden, womit auch hybride Ansätze einfach zu realisieren sind. [18] OpenStack: Viele brauchen es, keiner versteht es - wir erklären es, Martin Gerhard [21] OpenStack, Wikipedia.de Loschwitz, 2015 [22] OpenStack im Unternehmenseinsatz, Crisp Research, 2014 [19] OpenStack [20] OpenStack: Rocky Release Schedule 8
White Paper Open Telekom Cloud compute + compute storage storage Nova ist die Kernkomponente von OpenStack. Nova managt und auto- Openstack-Komponenten und Deployment tools matisiert die Computing-Ressourcen und deployed die virtuellen Maschinen. Nova braucht als Basis aber eine Virtualisierungstechnologie. core services Nova arbeitet mit den Hypervisoren KVM, Xen, VMware, Hyper-V und nova glance cinder swift neutron keystone Linux LXC zusammen. Nova erlaubt eine horizontale Skalierung auf Compute Image Block Object Networking Identify Service Storage Storage Standard-Hardware. Dadurch können die Computing-Ressourcen leicht in Bestandssysteme integriert werden. optional services Glance erlaubt die Verwaltung von Images. Images sind Installations- zun mistral horizon pakete aus Betriebssystem und Anwendungs-Software, die das Container Management Service Workflow Service Dashboard schnelle Aufsetzen von Applikationen in der Cloud ermöglichen. Der qinling zaqar ceilometer Image Service kann Disk und Server Images in verschiedenen Functions Service Messaging Service Telemetry Backends speichern, auffinden und wieder auf Server aufspielen. Er allein kann Images hinzufügen, löschen, teilen oder duplizieren. Damit ironic blazar panko Bare-Metal Provisioning Resource Reservation Event, Metadata Indexing können auch Backups realisiert werden. Gespeicherte Images können Service als Templates verwendet werden. cyborg aodh monasca Accelerators resource Alarming Service Monitoring management Cinder ist die zentrale Anlaufstelle für den Block Storage. Cinder stellt den jeweiligen Speicher bereit und verknüpft ihn mit oder löst ihn von manila magnum watcher Shared Filesystem Containers Optimization Service den Server-Instanzen. Cinder kann den persistenten Speicher aus ver- schiedensten Quellen bereitstellen – sowohl lokalem Linux Storage als octavia sahara vitrage auch einer breiten Palette von Speicher-Plattformen. Load Balancer Elastic Map Reduce Root Cause Analysis Service Swift ist ein skalierbares Object Storage System. Die verwalteten Storage designate trove congress DNS Service Database Governance Cluster können horizontal skalieren, einfach indem neue Server hinzu- gefügt werden. Im Gegensatz zum Block Storage werden die Daten im barbican masakari rally Object Storage verteilt auf verschiedene Speichermedien abgelegt. Key Management Instances High Availability Service Benchmark Service karbor murano cloudkitty Neutron verwaltet die Netzwerke und IP-Adressen. Es stellt verschiedene Application Data Application Catalog Billing and Chargebacks Protection aaS Netzwerkmodelle für Nutzer bereit; häufig sind VLANs, die die virtuellen Maschinen separieren. Darüber hinaus erhalten die Nutzer durch Neutron searchlight solum tricircle Indexing and Search Software Development Networking Automation for die Self-Service-Funktionalität sogar für Netzwerk-Konfigurationen. Lifecycle Automation Multi-Region Deployments heat freezer storlets Keystone ist das zentrale Nutzerverwaltungssystem. Es fungiert als Orchestration Backup, Restore and Data Computable Object Store Recovery Authentifizierungssystem und bietet verschiedene Autorisierungsverfahren. Beispielsweise lässt es sich auch mit existierenden Directory-Diensten senlin ec2api kuryr Clustering Service EC2 API proxy Container Plugin wie LDAP koppeln. tacker Weitere Module sorgen für Sicherheit (Barbican), Billing (Ceilometer), NFV Orchestration Orchestrierung (Heat), Einsatz von Hadoop (Sahara), Datenbank- Dienste (Trove), Dashboard (Horizon), Bare-Metal-Provisionierung (Ironic), Cloud Messaging (Zaqar) oder Shared-File-Einsatz (Manila). deployment tools tripleo openst.-ansible loci Deployment Service Ansible Playbooks Lightweight OCI containers Mit Heat bietet OpenStack ein Modul zur Orchestrierung von Cloud- Infrastrukturen. Resource Templates erlauben es, Code für die openstack-helm openst.-charms puppet-openst. Automatisierung von Arbeitsabläufe über Fragebögen zu erzeugen. Deploys OpenStack in containers using Helm Juju Charms Puppet Modules Mit der Einführung der Mitaka-Version im April 2016 haben Open- kolla-ansible bifrost chef-openstack Stack-Betreiber die Möglichkeit, neue Betriebssystem-Komponenten Container Deployment Ansible playbooks Cookbooks using ironic während des laufenden Betriebs (ohne Downtime) via Plugs einzu- führen. Mitaka erhöhte die Stabilität und Dynamik insbesondere rpm-packaging RPM package specs to von großen IT-Landschaften auf OpenStack. deploy OpenStack Abb. 3. Weit entwickelte Plattform, Quelle: OpenStack 9
White Paper Open Telekom Cloud Open Telekom Cloud Technische Infrastruktur Der First und Second Level Support erfolgt durch T-Systems. Den Im März 2016 startete die Deutsche Telekom einen weiteren Public- Third Level Support übernehmen Huawei-Experten, die fernmündlich Cloud-Dienst mit zunächst spezifischem Fokus für den europäischen hinzugezogen werden. Markt. Mit der so genannten Open Telekom Cloud auf Basis von Open- Stack umgehen Anwenderunternehmen nicht nur einen Vendor Lock-in, T-Systems verfügt über alle notwendigen Zertifikate, die einen ordnungs- sondern erfüllen auch rechtliche Anforderungen, die für den IT-Betrieb gemäßen Betrieb der Infrastruktur-Plattform belegen, beispielsweise bzw. den Datenschutz und weitere Compliance-Themen gelten. DIN ISO 27001 und ESARIS (Enterprise Security for Reliable ICT Services). Betrieben wird die Open Telekom Cloud von T-Systems in zwei Verfügbar- Zusätzlich verfügt T-Systems über spezifische Cloud-Zertifizierungen keitszonen (AZ) in den Rechenzentren Magdeburg und Biere, die etwa wie CSA Star Level 2 Gold und den TÜV Trusted Cloud Service sowie 25 km voneinander entfernt sind und als ‚Twin-Core‘ zusammenarbeiten. ISO 27017und 27018. Die Open Telekom Cloud verfügt auch über Die Tier 3+ Rechenzentren sind verbunden über ein High-Speed-Netzwerk eine Zertifzierung nach TCDP 1.0 (Trusted Cloud Data Profile) und ist mit geringer Latenz und erfüllen damit die notwendigen Voraussetzungen damit für eine (noch nicht existierende) EU-DSGVO-Zertifizierung best- für einen ausfallsicheren Betrieb. möglich aufgestellt. In den Rechenzentren betreibt T-Systems Pools von Commodity-Servern Ein Health Dashboard unter https://status.otc-service.com/ mit Intel x86-Architekturen, deren Rechenkapazität für die virtuellen verschafft Nutzern einen Echtzeiteinblick in den Status der Plattform. Maschinen der Nutzer voll automatisiert bereitgestellt wird. Im Storage- Bereich kommt je nach Anforderung an die I/O-Rate Block-Speicher in den Leistungsklassen SATA, SAS oder SSD zum Einsatz oder alternativ Open Telekom Cloud steht auch Object Storage bereit. Für Hochleistungsanforderungen steht plattformintern auch InfiniBand zur Verfügung. physikalische ansicht Das zugrunde liegende Netzwerk nutzt vSwitches. Damit ist sicherge- stellt, dass durch das IP-Fabric keine Engpässe entstehen. open telekom cloud region europa/deutschland vz rz rz vz biere magde- hochgeschwindigkeits- burg netzwerk mit niedriglatenz produktionsstandort produktionsstandort tena nt -si ch open telekom cloud t region europa/deutschland virtual vz private vm cloud Abb. 4. Aufbau der Open Telekom Cloud 10
White Paper Open Telekom Cloud AngebotsPortfolio network security & management Zusätzlich verfügbar: Independent Health NAT Gateway Dashboard Enterprise Agreements* Quota Mgmt *abhängig vom Vertragspartner und dem Bestellkanal Private Link Financial Cloud Trace Access Service compute storage Dashboard* Service paas Cloud Container Storage Disaster Content Delivery Firewall as a Resource Document Engine Recovery Service Network Service Template Service Database Service Bare Metal Scalable File Mobile Storage Simple Message Data Ingestion Service Elastic IP Solution Service Server Notification Dedicated Host Cloud Server Virtual Private Tag Management Distributed Data Warehouse Backup Service Cloud Service Message Service Service Elastic Cloud Elastic Load Key Management Price Online Distributed Server Object Storage Balancing Service Display Cache Service Elastic Volume Domain Name Identity and Migration as a Relational Auto Scaling Service Access Service Database Service Service Management saas Image Volume Backup Big Data: Management Direct Connect Anti-DDoS Cloud Eye Workspace MapReduce Service Service Service Service Abb. 5. Services der Open Telekom Cloud Netzwerk Services bietet die Open Telekom Cloud 48 Advanced-Flavors: Diese adressieren Auf der Netzwerk-Ebene werden Elastic IP Service, Virtual Private spezielle Einsatzszenarien und Anforderungsschwerpunkte (s.u.). Clouds (VPC) und Elastic Load Balancing geboten. Damit werden die Flavors sind Pakete bestehend aus virtuellen CPUs und virtuellem RAM. Ressourcen verschiedener Nutzer sicher gegeneinander abgegrenzt Die Flavor-Klassen sind: und die Basis für eine automatische Skalierung geschaffen. Der Virtual Private Cloud Service grenzt einen isolierten Abschnitt innerhalb der General Purpose (verfügbare vCPU:RAM 1:1, 1:2, 1:4 und 1:8) Open Telekom Cloud ab, den der Nutzer komplett selbst kontrollieren High Performance – für Anwendungen, die extrem hohe Ansprüche kann. Der Elastic IP Service bietet dem Nutzer eine öffentliche IP-Adresse an die Rechenleistung haben – auch mit Infiniband für den Zugriff auf diese Virtual Private Cloud. Damit wird auch der Graphical Processing Unit Optimized – für Applikationen, die eine Zugriff auf Open-Telekom-Cloud-Ressourcen via Internet möglich. Für GPU benötigen (Kryptographie, Grafikbearbeitung, CAD-Applikationen) die Verbindung des Unternehmensnetzes ist ein VPN Gateway auf Disk-intensive – mit lokaler Festplatte für Big-Data-Anwendungen IP-Sec-Basis verfügbar. Large Memory – für Anwendungen mit hohen Ansprüchen an Hauptspeicher Über Direct Connect bzw. Private Link Access Service lassen sich zusätz- FPGA –hardware-nahe Programmierung erlaubt das Design hoch- lich zu einfachen Internet-Verbindungen leistungsfähigere Netz-Anbin- spezialisierter Server für Top-Performanz dungen wie Ethernet Connect und MPLS (IntraSelect) realisieren. Domain Name Service und NAT Gateway sind ebenfalls verfügbar. Computing-Server sind von 1 bis 60 vCPU erhältlich, Arbeitsspeicher Zusätzlich bietet die Open Telekom Cloud noch den Zugriff auf ein Con- RAM von 1 bis 940 GB. Derzeit können Nutzer aus sieben verschiedenen tent Delivery Network, um die Performanz von Webseiten/-inhalten zu Betriebssystemgruppen wählen: Open Linux (CentOS, Ubuntu, open erhöhen. SUSE), Oracle Linux, SUSE, Red Hat, Debian, Fedora, EulerOS und Windows. Computing Services Als Virtualisierungstechnologie kommen derzeit (Ende 2018) Xen und Im Bereich des Computing werden virtuelle Server bereitgestellt. Dabei KVM zum Einsatz. Ab Mitte 2019 wird die Open Telekom Cloud nur noch können Nutzer aus 27 Basis-Flavors mit festgelegten Verhältnissen von KVM anbieten. KVM zeichnet sich durch einen besseren Support und vCPU zu RAM für herkömmliche Einsatzszenarien wählen. Zusätzliche höhere Performanz der Flavors aus. 11
White Paper Open Telekom Cloud Übersicht verfügbarer Flavors Übersicht Dedicated Hosts mit XEN-Hypervisor GENERAL PURPOSE FLAVORS (VERFÜGBAR MIT KVM UND XEN) DEDICATED SOCKETS CPU HARDWARE HOSTS & CORES vcpu RAM [GB] high Intel® Xeon® Processor E5-2690 v3 & v4 1 1 2 4 8 performance 2 à 12 36 vCPUs (30MB SmartCache, 2,60 GHz & 35MB SmartCache, 2,60 GHz) 2 2 4 8 16 (h1) Memory: 264 GB 4 4 8 16 32 Intel® Xeon® Processor E5-2690 v3 disk intensive (30MB SmartCache, 2,60) 2 à 12 40 vCPUs Memory: 328 GB 8 8 16 32 64 (d1) SAS disks: 24 x 1.800 GB 16 16 32 64 128 Intel® Xeon® Processor 2658A v3 & 32 32 64 128 256 Intel® Xeon® Processor 2658 v4 general purpose 2 à 12 72 vCPUs (30MB SmartCache, 2,2 GHz & 35MB SmartCache, 2,3 GHz) 60 - 128 258 512 Memory: 264 GB HIGH PERF GPU WORKSPACE DISK INTENSE LARGE MEM Abb. 8. Technische Spezifika der Dedicated Hosts auf Xen-Basis vcpu RAM [GB] + additional resources 2 4,8,16 - 4 - - 4 8,16,32 8 + vgpu 8 (+ 1 vgpu) 32 + 5,4tb 128 8 16, 32, 64 16 + vgpu 16 (+1 vgpu) 64 + 10,8tb 128/256 64 + gpu** Zusätzlich zu virtuellen Maschinen und Dedictaed Hosts bietet die 64 + gpu*** Open Telekom Cloud auch Bare-Metal-Ressourcen. Sie können entwe- 12 - - - - 256 der ohne oder aber mit einer nutzerdefinierten Virtualisierungsschicht 16 32, 64, 128 128 + 2gpu*** - 128 + 21,6tb 470 genutzt werden. Bare-Metal-Ressourcen bieten v.a. Geschwindig- 128*, 256* keitsvorteile für rechenintensive Anwendungen. 18 - - - - 445 32 64, 128, 256 + 4gpu*** - - 940 256, 256* 36 - - - 256 + 43,2tb 890 Übersicht bare metal XEN/KVM* XEN/KVM XEN XEN XEN *mit InfiniBand/KVM, **Nvidia M60 (KVM/pass-through), ***Nvidia P100 (KVM/pass-through) COMPUTE- GPU- HIGH- MEMORY- MEMORY- OPTIMIZED ACCELERATED PERFORMANCE OPTIMIZED OPTIMIZED Abb. 6. Basis- und Advanced-Flavors für verschiedene Anforderungen cpu 2 x 8 core 2 x 14 core 2 x18 core 4 x 24 core 4 x 24 core intel xeon intel xeon skylake xeon broadwell xeon broadwell xeon e5-2667 v4 e5 -2690 v4 gold 6151 v5 e7-8890 v4 e7-8890 v4 Neben diesem Flavor-Set bietet die Open Telekom Cloud auch die ram 256 gb 512 gb 192 gb 2048 gb 4096 gb Möglichkeiten einen Dedicated Host auf Stundenbasis zu mieten. Dedi- gpu - 8 x p100 - - - cated Hosts sind in sieben Varianten verfügbar, drei basieren auf Xen, netz - 100g ib* 100g ib* - - vier auf KVM. Auf diesen Dedicated Hosts können Nutzer eigene *Infiniband virtuelle Maschinen auf Basis der verfügbaren Flavors betreiben. Abb. 9. Technische Spezifika der Bare Metal Server Übersicht Dedicated Hosts mit KVM-Hypervisor Die Computing-Services lassen sich mit weiteren Services kombinieren, DEDICATED SOCKETS CPU HARDWARE beispielsweise Auto Scaling (für eine automatische Skalierung der HOSTS & CORES Intel® Xeon® Processor Gold 6161 Ressourcen entsprechend der Anforderungslast) oder einem Image Service. general purpose (30,25 MB L3 Cache, 2,2 GHz) (s2-large) 2 à 22 144 vCPUs Images sind vorkonfigurierte Betriebssysteme inkl. Treibern mit optionalen Memory: 704 GB Intel® Xeon® Processor Gold 6151 Applikationen. Vorkonfigurierte System-Images stellt die Open Telekom general purpose (24,75 MB L3 Cache, 3,0 GHz) (c3) 2 à 18 60 vCPUs Memory: 256 GB Cloud bereit; es können aber auch nutzerdefinierte Images abgelegt memory Intel® Xeon® Processor Gold 6151 werden, auf die Nutzer schnell zugreifen können. Jedem Flavor wird optimized 2 à 18 60 vCPUs (24,75 MB L3 Cache, 3,0 GHz) Memory: 512 GB dafür ein fester Block Storage Type SAS, SATA oder SSD zugeordnet. (m3) Intel® Xeon® Processor Gold 5118 general 2 à 12 72 vCPUs (16,5 MB L3 Cache, 2,3 GHz) (s2-medium) Memory: 328 GB Die Cloud Container Engine (CCE) ermöglicht den Einsatz von Contai- nern auf der Open Telekom Cloud. Zum Einsatz kommen Docker und Kubernetes. Mit der CCE können nicht nur virtuelle Maschinen für Con- Abb. 7. Technische Spezifika der Dedicated Hosts auf KVM-Basis tainer eingesetzt werden, sondern auch Bare Metal Server. 12
White Paper Open Telekom Cloud Storage Services Über einen Volume Backup Service können die Block-Storage-Ressourcen Open Telekom Cloud bietet drei grundsätzliche Storage-Lösungen an: zusätzlich abgesichert werden. Hierbei werden lokale System- und Block Storage, Object Storage und Scalable File Service. Objektbasierter Speicherdaten via Snapshot gesichert, damit sie schnell wiederher- Datenspeicher kann via Internet mittels HTTP oder HTTPS-Protokoll gestellt werden können. Beim Block Storage werden separate Pools für erreicht werden und ist unabhängig von spezifischen Compute-Ressour- die verschiedenen Leistungsklassen (SSD, SATA, SAS) vorgehalten. cen. Physisch werden die Daten nicht zusammenhängend gespeichert, sondern bedarfsgerecht freie Speicherkapazitäten genutzt. Object Sto- Der Scalable File Service (SFS) basiert auf dem OpenStack-Modul Karbor. rage ist eine kostengünstige Speichervariante für Langzeitspeicherung Er ist ein einfach zu nutzender Netzwerkspeicher, in der Anwendung großer Datenmengen. Im Object Storage können einzelne Dateien bis zu einem NAS (Network Attached Storage) ähnlich. Der SFS skaliert auto- 5 TB gespeichert werden. Object Storage ist je nach Nutzung der Daten matisch mit der Menge der abgelegten Daten auch hinsichtlich der in drei Leistungsklassen erhältlich: cold, warm, Standard. Cold-OBS ist Bandbreiten. Dabei sind die Zugriffsgeschwindigkeiten höher als bei geeignet für Daten, die abgelegt, aber nur selten verarbeitet werden einem Standard-OBS. müssen (ca. einmal jährlich. Er bietet keinen Echtzeitzugriff und wird je nach Kundenwunsch in drei Klassen wieder hergestellt. Warm bietet Seit November 2018 ist mit dem Storage Disaster Recovery Service dieselben Spezifikationen wie Standard-OBS und eignet sich für Daten, (SDRS) eine Echtzeit-Replikation von Daten über zwei Verfügbarkeits- auf die etwa einmal monatlich zugegriffen werden soll, Standard-OBS zonen hinweg. bietet schnellen Zugriff auf Daten, die akut – beispielsweise mit Big- Data-Tools – verarbeitet werden. Nutzer können mit verschiedenen Speicherverfahren das Konzept auswählen, das der Datennutzung am Cloud Management besten entspricht. Der Zugriff auf die Cloud-Ressourcen erfolgt über die Cloud-Konsole bzw. direkt über die angebotenen APIs (teils native OpenStack, teils Der Object Storage stellt zwei APIs bereit, die OpenStack-native SWIFT- spezifisch). Kunden erhalten einen Konsolenzugriff, mit dem sie sowohl API und S3. Dazu bietet er eine Web-Management-Konsole, einen Cloud Computing- als auch Storage-Ressourcen und Images verwalten können. Storage Service Web Client und ein Software Development Kit für den Cloud Eye und ein Financial Dashboard sorgen für Transparenz: Hier Endanwender. erhalten Nutzer jederzeit Auskunft über die aktiven Ressourcen, ver- brauchte Mengen und angefallene Kosten. Mit dem Aufsetzen in Block Storage bietet persistenten Speicher, der an die Compute-Resour- ‚myWorkplace‘ erhalten die Nutzer ein Administratorenkonto für das cen als virtuelles Laufwerk gehängt wird. Im Unterschied zu traditionellen Management ihrer Ressourcen. Hierüber werden die weiteren Nutzer Festplatten-Arrays werden bei diesem Storage Service identische Kopien einer Einheit angelegt. Später sorgt der Identification & Authentication auf mehreren Speicherknoten abgelegt, um den Datenbestand mit Service für deren sichere Anmeldung und Wiedererkennung. Über die 99,99995 Prozent dauerhaft zu speichern. Block Storage wird von 40 Accounts können auch Quota festgelegt werden, die die Menge der GB bis zu 32 TB angeboten. Bis zu 40 Laufwerke können an eine genutzten Ressourcen auf ein Höchstmaß limitieren. Damit können Unter- Compute-Instanz gebunden werden. nehmen sicherstellen, dass gewisse Budgetgrenzen nicht überschritten werden. Mit dem Price Online Display werden zudem beim Aufsetzen von virtuellen Maschinen etc. die entstehenden Kosten ausgegeben. Cloud Übersicht block Storage Trace erlaubt Nutzern Log-Dateien für ihre Ressourcen automatisch zu erzeugen. Dabei wird jede Änderungen an den Ressourcen mitproto- COMMON I/O HIGH I/O HIGH I/O ULTRA-HIGH I/O ULTR-HIGH I/O kolliert. Diese Funktionalität eignet sich besonders für Auditzwecke. Der (SATA) (SAS) (SAS BOOSTED) (SSD) (SSD BOOSTED) Distributed Messaging Service (DMS) und die Simple Message Max. IOPS per EVS disk 1.000 3.000 3.000 20.000 30.000 Notification (SMN) sind Kommunikationsdienste auf Basis von API Max. throughout per EVS disk 40 MB/s 120 MB/s 550 MB/s 320 MB/s 1 GB/s Calls. SMN kann zudem auch SMS oder E-Mails an externe Adressaten Average response time 10 ms - 15 ms 6 ms - 10 ms 6 ms - 10 ms 1 ms - 3 ms 1 ms versenden. Mit Migration as a Service (MaaS) und HEAT/Resource Templates verfügt die Open Telekom Cloud über zwei Management- Abb. 10. Der Block Storage wird in fünf Leistungsklassen angeboten. Dienste, die zum einen den Datentransfer als auch die Orchestrierung von Ressourcen vereinfachen. 13
White Paper Open Telekom Cloud Security Services Eines der Anwender-Topthemen ist der Aufbau von hybriden Clouds bzw. Als optionale Sicherheitsdienste bietet die Open Telekom Cloud das Management von Multi-Clouds23. Während Multi-Clouds unabhängig Verschlüsselung für Block und Object Storage. Ein zentrales Key nebeneinander stehende Cloud-Lösungen für abgeschlossene Funktions- Management System verwaltet die öffentlichen Zugriffsschlüssel auf die umfänge kennzeichnen, erfordern hybride Clouds eine Integration Open Telekom Cloud. Mit dem Anti-DDoS-Service bietet die Open verschiedener IT-Komponenten, um einen kompletten oder Teil-Geschäfts- Telekom Cloud einen spezielle Sicherheitsfunktion. Dieser Service prozess zu unterstützen. Neben verschiedenen Clouds (Private, Public, erkennt DDoS-Attacken (Distributed Denial of Services), die öffentliche Community) müssen hier auch klassische IT-Installationen berücksichtigt IP-Adressen lahmlegen können und ergreift aktive Gegenmaßnahmen, werden. OpenStack als offener Standard erleichtert die Integration damit die Verfügbarkeit der auf der Cloud laufenden Applikationen verschiedener Komponenten. 2018 wird die Open Telekom Cloud auch in gewährt bleibt. Anti-DDoS schützt die Public IP, so dass Applikationen, einem hybriden Modell verfügbar werden, in dem Nutzer eigene private die auf der Open Telekom Cloud betrieben werden, auch im Falle krimi- Installationen als Ergänzung der Public Open Telekom Cloud aufbauen neller Überlastungs-Angriffe, wie Challenge Collapsar Attacks, UDP- und können. Damit werden hybride Modelle einfach realisierbar. SYN-Flooding, stets verfügbar sind. An der Firewall erfolgt dazu u.a. ein Security Filtering für den Datenverkehr über öffentliche IP-Adressen. Nutzerbetreuung über Self Service hinaus Auch VPN-Verbindungen in die Cloud werden verschlüsselt. Üblicherweise werden bedarfsgerechte Infrastrukturleistungen (IaaS) im Wesentlichen nur über kostengünstige Online-Kanäle vertrieben und Plattform-Dienste betreut. Dem User Self Service kommt in diesen Verfügungsmodellen eine Relationale Datenbanken (RDS) auf Basis von mySQL, PostgreSQL und hohe Bedeutung zu. Neben den üblichen Self-Service-Funktionalitäten Microsoft SQL Server sind ebenfalls verfügbar. Der Relational Data- bietet die Open Telekom Cloud zusätzliche Beratungsservices: Eine base Service bietet umfangreiche Monitoring-Funktionen, die nicht Beratungsseite führt Experten und Einsteiger zu den für sie passenden nur Transparenz über den Status der zugrundeliegenden VM, sondern Paketen, die sich für ihr Einsatzszenario am besten eignen. Weitere Basis auch umfangreiche Performance-Reports für das Datenbank-Manage- Services wie die Hotline sind in den Preisen inklusive. Damit werden ment bieten. Für Hochverfügbarkeits-Zwecke ist das Anlegen von hybride Modelle einfach realisierbar. Standby-Datenbanken (zusätzlich zur Primary-Datenbank) vorgesehen. Jedem Datenbank-Cluster können bis zu fünf Read Replicas mit aus- Zusätzlich vertreibt die Deutsche Telekom bzw. T-Systems die Leistun- schließlichem (schnellem) Lesezugriff hinzugefügt werden. gen der Open Telekom Cloud auch via Direct Sales mit persönlichen Vertriebsansprechpartnern. Über Enterprise Agreements (Silber, Gold, Redis ist als Distributed Cache Service, ein Document Database Service Platin) können Unternehmen auch einen zusätzlichen Premium-Support auf Mongo-Basis verfügbar. ordern. Im Platin-Agreement ist auch ein Enterprise Dahsboard enthalten, das Nutzern völlige Transparenz über den Verbrauch von Ressourcen zu Mit dem Workspace Service stellt die Open Telekom Cloud Flavors (auch Kostensätzen erlaubt, die von den Listenpreisen abweichen. Das Enter- mit integrierter vGPU) als virtuelle Desktop-Infrastrukturen bereit. Die prise Dashboard ist auch als alleinstehende Lösung verfügbar. virtuellen Desktops bieten Verschlüsselung und 2-Faktor-Authentifize- rung. Sie können zudem auch auf Dedicated Hosts realisiert werden, um Soll die Open Telekom Cloud nicht nur situativ eingesetzt werden, sondern Lizenzen zu nutzen, die bereits hausintern existieren. Bestandteil des Sourcing Mix von Unternehmen werden, erhalten Interessenten auch eine ausführliche Beratung durch Enterprise- Ein Data Ingestion Service erlaubt das Transferieren großer Datenmen- Architekten. Sollen Applikationen in die Public Cloud migriert werden, gen, ein Data Warehouse Service Queranalysen aus verschiedenen exis- stellt T-Systems auch projektspezifische Transformations- und Migrations- tierenden Datenbanken. dienste über ihre Systemintegrations-Dienste bereit. Nach der Entscheidung für die Nutzung bietet die Deutsche Telekom Service-Erweiterungen: Hybrid Cloud unter cloud.telekom.de einen zentralen Zugang zu allen Public Cloud Cloud Computing als IT-Bezugsmodell existiert nunmehr schon seit über Services. Dort melden sich Nutzer an und können die gewünschten 10 Jahren. In dieser Zeit haben sich die Erwartungen an Cloud Computing Ressourcen bestellen, nutzen und verwalten. gewandelt. Einfache virtuelle Maschinen oder Speicherkapazitäten nach Bedarf sind immer noch gefragt, allerdings erwarten Nutzer ergänzende Für den Import großer Datenmengen ist Mobile Storage Solution (MSS) Services für höheren Nutzungskomfort und Suiten, die neben IaaS- auch verfügbar. Über Synology NAS-Devices können je 100 TB an Daten in PaaS- und SaaS-Dienste bieten. Cloud-Anbieter entwicklen daher ihre das Cloud-Rechnezentrum transportiert werden. Der physische Trans- Angebote kontinuierlich weiter. port spart Bandbreiten und senkt die Kopierzeit drastisch. [23] State of the Cloud Report, RightScale, 2018 14
White Paper Open Telekom Cloud Einsatzbeispiele Eine große Stärke offener Plattformen ist die Möglichkeit, auch Multi-Cloud- oder Hybrid-Cloud- Szenarien realisieren, die den unternehmerischen Anforderungen entsprechen und die Cloud- Landkarte in den nächsten Jahren prägen werden. Gleichzeitig müssen Unternehmen auch immer erwägen, ob und in welchem Umfang bestehende Applikationen in die Cloud migriert werden können oder müssen. Migration von Applikationen in die Cloud Am einfachsten ist die Überführung cloud-nativer Applikationen zwischen Die Applikationslandschaft überstreicht eine breite Palette von Legacy- verschiedenen Infrastruktur-Clouds. Sie sind bereits so konzipiert, dass sie Anwendungen, die seit Jahrzehnten mit nur geringen Modifikationen auf dynamischen Infrastrukturen lauffähig sind. D.h. es gibt keine statischen Kernprozesse unterstützen über standardisierte Software für Unterneh- Bezüge und alle für den Ablauf notwendigen Instruktionen sind innerhalb menssteuerung und Office-Anwendungen bis hin zu modernen Web- der Applikation vorhanden. oder gar cloud-nativen Applikationen. Mithilfe von Migrationstools können Applikationen einfach zwischen ver- Je nach Generation und Architektur der Anwendungen bieten diese schiedenen Clouds verschoben werden, beispielsweise um Kosten zu unterschiedlich große Potenziale für den „Transfer“ in die Cloud. reduzieren oder um bessere Service Level oder ein höheres Sicherheits- Dabei muss Transfer nicht zwingend bedeuten, dass die Applikation in niveau zu erhalten. Ein typischer „Migrationsfall“ ist der Transfer einer eine cloud-native Architektur transferiert wird. Der einfachste Ansatz Applikation von der Entwicklungs- auf die Betriebsplattform. Mit Docker Applikationen in die Cloud zu überführen, ist die Migration von einer setzt sich hier ein Standard durch, der einen einfachen Transfer erlaubt. dezidierten Plattform auf eine dynamische Plattform, um Kostenein- sparungen zu realisieren (lift and shift). Die Open Telekom Cloud bildet dies mit der Cloud Container Engine ab, die auf Docker und Kubernetes basiert. Clouds mit offenen Standards vereinfachen diesen Transfer zusätzlich, während bei Applikationen auf proprietären Plattformen häufig zusätzliche Schritte nötig sind, oder – bei Nutzung von Spezialdiensten des Anbieters – ein Transfer gar nicht möglich ist. Dennoch ist der Transfer solcher Applikationen mit ungleich niedrigerem Aufwand verbunden als der von Legacy-Applikationen. Bei diesen müssen zunächst Fragen zum DevOps Application Management, zur Verfügbarkeit und zur horizontalen Skalierbarkeit geklärt werden. Bei der Portierung auf eine Cloud-Plattform kann dann auch ein komplettes Neudesign nötig werden. Die naheliegendsten Szenarien für Applikationsbetrieb in der Cloud liegen bei Web-Anwendungen oder für SaaS. Creatieve Koppen, eine Agentur für Innovationsmanagement aus Rotterdam, betreibt eine Online-Anwendung, auf die Teams zurückgreifen können, wenn sie neue Geschäftsideen entwickeln wollen. Dabei ist die Last auf der Anwendung je nach Nachfrage großen Schwankungen unterworfen. Der Betrieb in einer Public Cloud ermöglicht der Agentur über automatische Skalierung die IT-Kapazitäten der Nachfrage anzupassen, so dass die Nutzer jeder- zeit ein gutes Nutzererlebnis haben. 15
White Paper Open Telekom Cloud Die Octopus AG, ein Startup aus der Schweiz, betreibt ein SaaS-Angebot In hybriden Szenarien könnten so Produktivsysteme inhouse betrieben für das Management von Microsoft-Lizenzen in der Open Telekom Cloud. werden, die Daten aber in eine Storage Cloud ausgelagert werden, die Service Provider können mithilfe der Software automatisiert Reports über nach Bedarf wächst und die Daten vorhält – entweder als Primärspeicher die Art und Menge der eingesetzten Microsoft-Lizenzen erstellen. Die oder aber als Backup. Der Einsatz von Public-Cloud-Ressourcen erspart Lösung erleichtert das Software Asset Management und braucht ebenfalls den Designern und Administratoren eigene, nicht wettbewerbsdifferen- hohe Skalierbarkeit. zierende Speicherkapazitäten aufzubauen bzw. Speicher-Lösungen zu ent- wickeln und zu managen. Kontinuierliche Investitionen in Storage-Hard- Aber Public Clouds bieten auch – entgegen allgemeinen Vorurteilen – Einsatz- ware sowie das Aufrechterhalten des Speicher-Know-how entfallen. möglichkeiten für Enterprise-Applikationen. So können beispielsweise SAP-Systeme für Sandbox-Erprobungen, Tests oder Schulungen auf der Im Flugzeugbau müssen Konstruktions-, Berechnungs-, Statistik- und Open Telekom Cloud betrieben werden. Gerade bei großen Systemen mit Bilddaten etwa dreißig Jahre aufbewahrt werden – nachdem das letzte hohen Anforderungen an Hauptspeicher wie SAP S/4 HANA ist in tempo- Exemplar einer Baureihe geflogen ist. Darüber hinaus gilt für Unterlagen rären Einsätzen wie bei Schulungen eine Bereitstellung der Infrastruktur- über Bauteile oder Komponenten für Luftfahrtgeräte eine Aufbewahrungs- Ressourcen aus der Cloud der Königsweg. Die Geschwindigkeit der frist von mindestens 25 Jahren. Für Flugzeug-Hersteller fallen so viele TB Verfügbarkeit und die nutzenorientierten Kosten stellen traditionelle an Daten an, die in der Mehrzahl keinen operativen Nutzen haben, sondern Bereitstellungsmodelle in den Schatten. lediglich reinen Compliance-Zwecken dienen. Die Ablage solcher Daten in „kaltem“ Object Storage einer Public Cloud ist eine kostengünstige Auch für die Ablage ganzer SAP-Systeme (oder anderer etablierter Busi- Möglichkeit, eigene Systeme zu entlasten und dennoch etwaigen ness-Systeme) eignen sich Public-Cloud-Ressourcen. JIVS on Open Berichtspflichten vollständig zu genügen. Telekom Cloud ermöglicht es, Daten mitsamt der zugehörigen Applikationen „einzumotten“ und abzulegen. Dies ergibt einen Sinn beispielsweise im Bankenumfeld, wenn Daten in ihrem Bezugsrahmen für Anfragen der Public Cloud für Hochlast-Applikationen Aufsichtsbehörden vorgehalten werden müssen. Die Kosten für ein kom- Über einen einfachen Applikationsbetrieb hinaus gibt es Anwendungen, plettes operatives System ohne jeglichen Business-Nutzen sind hoch, die die die Möglichkeiten klassischer Cloud-Deployments an ihre Grenzen alleinige Ablage der Daten ohne ihren Auswertungsrahmen sinnlos. Ein bringen. Typische Beispiele für solche Anwendungen sind Hochlast- Transfer des Komplettsystems auf eine Public Cloud ist hier eine Lösung, Szenarien in Wissenschaft und Forschung oder aber die Verarbeitung die deutlich Kosten senkt. Auch für den Transfer des Systems im Rahmen immenser Datenmengen (Big Data). Die europäische Organisation für eines IT-Projekts können Public-Cloud-Ressourcen eingesetzt werden. Kernforschung in Genf (CERN) beispielsweise setzt mit ihren teilchen physikalischen Experimenten immer wieder neue Rekordmarken, wenn es um die Verarbeitung großer Datenmengen geht. Schon frühzeitig Wachsende Datenberge beherrschen durch Cloud Storage erkannte das Institut das Potenzial der Cloud-Technologie und die Viele existierende Unternehmensprozesse produzieren Daten, die nicht Vorzüge von OpenStack. 2016 startete das CERN gemeinsam mit einem nur aufgrund rechtlicher Anforderungen, sondern auch für Big-Data- Dutzend anderer europäischer Spitzenforschungsinstitute eine Initiative Analysen oder einfach nur aus Sammelleidenschaft der Nutzer auf Dauer zum Aufbau einer europäischen Wissenschaftscloud, der Helix Nebula archiviert werden. Ein Klassiker sind die Kommunikationssysteme im Science Cloud. Die Open Telekom Cloud durchlief den kompletten Aus- Unternehmen. Häufig totgesagt, erfreut sich das Medium immer noch wahlprozess und wurde mit mehreren verschiedenartigen Workloads florierender Nutzung: Im Jahr 2018 wurden täglich 281 Mrd. Mails gestestet. Dazu gehörte die Aufbereitung teilchenphysikalischer Experi- geschrieben24. Zu Mails gesellen sich Daten in Intranets oder von mente am CERN selbst (Atlas, CMS und Alice) und am Super KEKB in Collaboration-Plattformen, die selten gelöscht, sondern stattdessen Japan (Belle 2), die Big-Data-Analyse von Krebsdaten (PAN-CANCER) für weiter gesammelt werden. Direkt im Geschäftsmodell verankert ist die das EMBL (European Molecular Biology Laboratory) und Simulationen kontinuierliche Datenarchivierung für Print-, Video- oder Hörfunkarchive für das COMPASS-Projekt (Common Muon and Proton Apparatus for in Medienhäusern. Structure and Spectroscopy). Zu diesen Klassikern gesellen sich die neuen Angebote wie Connected Allen Projekten gemein ist ein hybrider Cloud-Ansatz. Inhouse-Kapazitä- Cars, Predictive Maintenance oder Internet-of-Things-Szenarien als neue, ten werden bedarfsgerecht durch externe Cloud-Kapazitäten ergänzt, fast unerschöpfliche Datenquellen. Ein explodierendes Datenuniversum, um Auswertungszeiten zu reduzieren und damit die Verfügbarkeit in dem Daten zum Rohstoff für zukünftiges Business werden, benötigt wissenschaftlicher Ergebnisse zu beschleunigen. Während bei auch einfach verfügbare Speicherkapazitäten. COMPASS zeitlich unkritische Batchjobs angestoßen und an die [24] E-Mail Statistics Report 2018 - 2022, The Radicati Group, 2018 16
Sie können auch lesen