Optimierung der Workload-Platzierung in Ihrer Hybrid Cloud - Dell
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Whitepaper Optimierung der Workload-Platzierung in Ihrer Hybrid Cloud Gesponsert von: Dell Technologies, Intel und VMware Eric Burgener Sriram Subramanian Juli 2020 IDC-MEINUNG Viele IT-Abteilungen sind derzeit dabei, ihre Infrastruktur zu modernisieren – entweder im Rahmen einer Strategie zur digitalen Transformation (DX) oder angetrieben vom Wunsch, die Effizienz zu verbessern, die Komplexität zu reduzieren und/oder die Kosten für IT-Betriebsabläufe zu senken. In Verbindung mit diesen Bemühungen stellen Unternehmen Anwendungen der nächsten Generation bereit, die den IT-Führungskräften mehr als je zuvor abverlangen, wenn es um die Einhaltung der Anforderungen an Agilität, Performance, Verfügbarkeit und Datenmanagement geht. Um diesen Anforderungen gerecht zu werden, suchen IT-Abteilungen nach Technologien für Cloud, Accelerated Computing, Solid-State-Massenspeicher, verteilte Daten, softwarebasierte Infrastruktur, Scale-out- Architekturen sowie künstliche Intelligenz und maschinelles Lernen (KI/ML). Cloud-Technologien spielen in der modernisierten Infrastruktur eine wichtige Rolle. Cloud-Plattformen bieten eine höhere IT-Agilität, stellen On-Demand-Zugriff auf IT-Ressourcen bereit und ermöglichen Unternehmen eine Umstellung auf abonnementbasierte Preismodelle, mit denen sie ihre Ausgaben viel enger an der tatsächlichen Nutzung ausrichten können. Auch wenn Unternehmen anfänglich bei der Einführung von Cloud-Technologie auf die Public Cloud setzten, ist IDC der Ansicht, dass Unternehmen zur Modernisierung der Infrastruktur zunächst eine Hybrid-Cloud-Strategie erarbeiten sollten. Eine Hybrid-Cloud-Umgebung stellt herkömmliche On-Premises- sowie Private- und Public- Cloud-Bereitstellungsmodelle unter einem vereinheitlichten Management-Dashboard bereit, das eine gemeinsame Experience beim Betrieb über alle Plattformen und Umgebungen hinweg ermöglicht. Eine Hybrid-Cloud-Strategie bietet die größte Flexibilität für eine optimale Workload-Platzierung, da sie alle drei Optionen umfasst – von denen jede einige einzigartige Vorteile bietet. Für alle Workloads gibt es zu jedem gegebenen Zeitpunkt in dessen Lebenszyklus in der Regel eine Bereitstellungsoption, die besser geeignet ist als die anderen. Unternehmen sollten zu Beginn der Modernisierung der Infrastruktur überlegen, wie sich Workloads je nach Nutzungsmerkmalen und organisatorischen Zielen optimal platzieren lassen. Bei der Entwicklung einer erfolgreichen Hybrid- Cloud-Strategie besteht das ultimative Ziel darin, die strategischen Entscheidungen zur Workload- Platzierung so zu treffen, dass Service-Level-Agreements (SLAs) erfüllt werden, die Sicherheit verbessert wird und maximale Effizienz bei minimalen Kosten erzielt wird. Im Rahmen einer umfassenden Primärerhebung hat IDC Anfang 2020 untersucht, wie Unternehmen im Laufe der digitalen Transformation bei der Workload-Platzierung vorgehen und welche Auswirkungen dies auf die Ziele und Strategien rund um eine modernisierte Infrastruktur hat. Wichtige Erkenntnisse waren unter anderem: ▪ Eine modernisierte Infrastruktur wird von 91,1 % der Unternehmen als entscheidender Faktor für den Erfolg der digitalen Transformation angesehen. Von diesen Unternehmen sind rund 70 % in den nächsten zwei Jahren mit einer Aktualisierung von Servern, Storage und/oder Data Protection beschäftigt. ▪ 95,7 % der Unternehmen haben die Anweisung der Unternehmensführung, Cloud- Technologien zu nutzen. Mehr als die Hälfte (53,8 %) wurden von der Unternehmensführung angewiesen, Hybrid-Cloud-Umgebungen zu unterstützen. July 2020, IDC Nr. US46637920
▪ Zu den wichtigsten Kriterien bei der Entscheidung, ob Workloads in herkömmlichen On- Premises-Umgebungen oder in der Private bzw. Public Cloud platziert werden, gehörten Sicherheit, Performance, einfaches Management, Verfügbarkeit, Kosten, Compliance, Agilität, Nutzungsmuster und Datenlast. Da Unternehmen ihre vorhandenen IT-Infrastrukturen optimieren, um Zugang zu den neuen Technologien zu erhalten, die für die digitale Transformation erforderlich sind, ist die Vereinfachung einer potenziell komplexen Umgebung mit Produkten und Services von mehreren Server-, Storage-, Data-Protection- und/oder Public-Cloud-Anbietern, die On- und Off-Premises-Standorte umspannen, ebenfalls eine Überlegung. Technologieanbieter, die ein breites Angebot an gut integrierten IT- Infrastrukturlösungen und umfassende Partnerschaften vorweisen, können dazu beitragen, einen Großteil dieser Komplexität zu reduzieren. Unsere Studie zeigt, dass das umfassende Infrastrukturportfolio von Dell Technologies Server, Storage, Data Protection und Cloud-basierte Services beinhaltet, mit denen die Anforderungen an eine modernisierte Infrastruktur erfüllt werden. Der Anbieter stellt außerdem konvergente und hyperkonvergente Systemlösungen, mehrere flexible Nutzungsmodelle und eine vereinheitlichte Steuerungsebene auf Grundlage von Technologie von VMware und anderen Anbietern bereit. Die Produkte von Dell Technologies unterstützen die erforderlichen neuen Technologien, und dank seiner Angebotspalette kann der Anbieter eine konsistente Experience beim Betrieb über herkömmliche On- Premises- sowie Private- und Public-Cloud-Bereitstellungsmodelle hinweg bieten. Die Verfügbarkeit einer derart umfassenden Reihe von Technologielösungen von einem einzigen Anbieter ermöglicht die Reduzierung der Komplexität und die Vereinfachung der Anbieterinteraktion. Unternehmen, die sich im Rahmen ihrer Bemühungen zur Modernisierung der Infrastruktur für eine gut integrierte Hybrid-Cloud- Umgebung interessieren, sollten sich die Angebote von Dell Technologies und seinen wichtigsten Partnern (darunter Amazon, Microsoft Azure, Google, VMware und Intel) genauer ansehen. METHODIK In diesem Whitepaper wird auf Daten aus einer weltweiten Umfrage (Modernized Infrastructure Survey von IDC) Bezug genommen, die im Januar 2020 durchgeführt wurde und Entscheidungen rund um eine modernisierte Infrastruktur und Workload-Platzierungsstrategien in Unternehmen, die nach digitaler Transformation streben, untersucht hat. Die Umfrage umfasste mehrere Enterprise-IT- Infrastrukturbereiche, darunter Cloud, Server, Storage und Data Protection sowie konvergente und hyperkonvergente Infrastruktur. 900 IT-Leiter, Solution Architects und IT-Manager aus verschiedenen vertikalen Branchen, darunter Finanzdienstleistungen, Gesundheitswesen, diskrete Fertigung, IT- Services, Versorgung, Bildung und Telekommunikation, nahmen an der Umfrage teil. Die Befragten kamen aus mehreren geografischen Regionen, inklusive Australien, Kanada, China, Deutschland, Indien, Neuseeland, Großbritannien und den USA, und umfassten kleine und mittelständische Unternehmen sowie Großunternehmen. SITUATION: ÜBERBLICK IDC definiert die digitale Transformation oder DX als kontinuierlichen Prozess, bei dem Unternehmen digitale Kompetenzen nutzen, um mit neuen, stärker datenzentrierten Geschäftsmodellen Innovationen zu ermöglichen, ihre internen Workflows, Produkte und Services zu verbessern und disruptive, aber positive Veränderungen in den externen Umgebungen zu fördern, in denen sie konkurrieren. ©2020 IDC Nr. US46637920 2
DX ermöglicht es Unternehmen, mehr geschäftliche Agilität und Produktivität zu erreichen. Zudem zeigen diverse IDC-Studien, dass der Erfolg der DX eng mit der Bereitstellung einer modernisierten Infrastruktur zusammenhängt. Mit modernisierter Infrastruktur ist der Prozess der Einführung neuer Technologien im Zuge der Weiterentwicklung der IT-Infrastruktur zur Erfüllung der DX-Anforderungen gemeint, wie zum Beispiel Cloud-basierte Services, Accelerated-Computing-Lösungen, NVMe (Non- Volatile Memory Express) und die davon unterstützten aufkommenden Produkte mit persistentem Speicher, softwarebasierte Infrastruktur, künstliche Intelligenz und maschinelles Lernen sowie Scale- out-Architekturen. Mehr als 91 % der Umfrageteilnehmer bewerteten modernisierte Infrastruktur als entscheidenden Faktor für den Erfolg ihrer DX. Cloud-Technologien spielen in der heutigen modernisierten Infrastruktur eine wichtige Rolle. Unternehmen nutzen Cloud-Technologie zunehmend als Teil der modernisierten Infrastruktur, wie sich am steigenden Prozentsatz der Unternehmensausgaben für Cloud-basierte Infrastruktur zeigt. 95,7 % der Befragten gaben an, dass sie von der Unternehmensführung beauftragt wurden, eine Umstellung auf Cloud-basierte Umgebungen (Private oder Public Clouds) durchzuführen. Mit Public-Cloud- Plattformen können Unternehmen einen Großteil der Verantwortung für das Infrastrukturmanagement auslagern und die Vorteile rund um Elastizität, einfache Skalierbarkeit und Selfservice- Bereitstellungsfunktionen nutzen. Sie ermöglichen Anwendungsentwicklern die Bereitstellung neuer Instanzen und die Nutzung nativer Cloud-Services nach Bedarf, was wiederum ihre Produktivität und Innovationsfähigkeit steigert. Private-Cloud-Plattformen bieten ebenfalls ein Cloud-Erlebnis und erfüllen gleichzeitig bestimmte andere Anforderungen, die möglicherweise eine Herausforderung für die Public Cloud darstellen können. Die meisten Unternehmen beginnen ihre Cloud-Strategie mit umfangreichen Investitionen in die Public Cloud. Doch 88,9 % der Umfrageteilnehmer planen, in den nächsten 12 Monaten auch eine Private- Cloud-Infrastruktur bereitzustellen. Die Public Cloud ist ein wichtiger Teil einer effektiven IT- Modernisierungsstrategie, aber für viele Workloads können Public-Cloud-Umgebungen einfach nicht die wichtigen Anforderungen an Performance, Verfügbarkeit, Sicherheit, Compliance, Governance und Kosten erfüllen. Und selbst wenn die Public Cloud anfänglich gut geeignet ist, können sich die Workload-Eigenschaften im Laufe der Zeit ändern. Viele der befragten Unternehmen haben Workloads von Public-Cloud-Anbietern wieder in ihre eigene On- Premises-Infrastruktur zurückgeführt. Begründet wurde IDC ist der Ansicht, dass die meisten dies hauptsächlich mit Sicherheit, der kürzlichen Unternehmen letztlich Hybrid-Cloud- Bereitstellung von modernisierter interner Infrastruktur, Umgebungen nutzen werden, in der eine unvorhersehbaren Public-Cloud-Kosten angesichts der herkömmliche On-Premises-Infrastruktur, tatsächlichen Nutzungsmuster und behördlichen eine Private-Cloud-Infrastruktur und eine Bestimmungen. Studienergebnisse wie diese sind der Public-Cloud-Infrastruktur kombiniert Grund, warum IDC der Ansicht ist, dass die meisten werden. Unternehmen letztlich Hybrid-Cloud-Umgebungen nutzen werden, in der eine herkömmliche On-Premises- Infrastruktur, eine On-Premises-Private-Cloud-Infrastruktur und eine Public-Cloud-Infrastruktur kombiniert werden. Jeder Ansatz kann verschiedene Vorteile bieten, und Unternehmen müssen das optimale Betriebsmodell für jeden Workload suchen (eine Entscheidung, die im Laufe der Zeit möglicherweise angepasst werden muss, wenn sich Workloads weiterentwickeln). ©2020 IDC Nr. US46637920 3
IDC definiert Hybrid Cloud als die Nutzung von IT-Services (einschließlich IaaS, PaaS und SaaS) in einem oder mehreren Bereitstellungsmodellen mithilfe eines vereinheitlichten Management- Frameworks. Hybrid-Cloud-Plattformen umfassen Kombinationen aus herkömmlichen IT- Bereitstellungen (On-Premises) sowie Private-Cloud- und Public-Cloud-Infrastrukturbereitstellungen, die über ein konsistentes, vereinheitlichtes Dashboard gemanagt werden. Mithilfe von Hybrid-Cloud- Plattformen können Unternehmen Workloads je nach Workload-Anforderungen und organisatorischen Prioritäten in der am besten geeigneten Infrastruktur platzieren: On-Premises oder Private bzw. Public Cloud. Mehr als 53 % der Befragten gaben an, dass sie eine Hybrid-Cloud-Infrastruktur bereitstellen möchten, die aus allen drei Bereitstellungsmodellen besteht. Dieser Prozentsatz wird voraussichtlich im Laufe der Zeit steigen. Es besteht kein Zweifel daran, dass die Hybrid Cloud in Zukunft für die meisten Unternehmen das optimale IT-Infrastrukturbereitstellungsmodell sein wird. Hauptziele bei der Modernisierung der Infrastruktur Die Bedürfnisse der digitalen Transformation erhöhen die Anforderungen an die Unternehmensinfrastruktur, die sich mit Legacy-Umgebungen nur schwer erfüllen lassen. Zu diesen Herausforderungen zählen unter anderem Agilität, Performance, Verfügbarkeit, Sicherheit und die Möglichkeit, Cloud-basierte Technologien optimal nutzen zu können. Das Ziel einer modernisierten Infrastruktur besteht darin, einen Technologie-Refresh durchzuführen, um diese Anforderungen zu erfüllen. Darum gilt die Modernisierung der Infrastruktur für so viele Unternehmen als ein entscheidender Faktor für den Erfolg der DX. Unternehmen haben sehr klare Ziele, wenn sie modernisierte Infrastruktur bereitstellen: Die vier „gefragtesten Technologien“ sind Cybersicherheitsfunktionen, Cloud-basierte Data Protection, Accelerated-Computing-Lösungen und Solid-State Storage (siehe Abbildung 1). ©2020 IDC Nr. US46637920 4
ABBILDUNG 1 Gefragteste Technologien für modernisierte Infrastruktur Cybersicherheitsfunktionen 62,9 Cloud-basierte Data-Protection-Funktionen für 54,0 Cloud-basierte Workloads Lösungen für beschleunigtes Computing 47,5 Solid-State Storage 47,3 Software Defined Storage 41,2 Skalierbare Architektur 39,8 Cloud-basierte Technologien 36,9 (Private und/oder Public Cloud) Container 34,1 Software Defined Networking 32,5 Sonstiges 0,0 0 10 20 30 40 50 60 70 (% der Befragten) n = 900 Quelle: IDC: Modernized Infrastructure Survey, 2020 Als Teil der digitalen Transformation stellen Unternehmen häufig Anwendungen der nächsten Generation bereit, die nicht nur verbesserte Cybersicherheitsfunktionen, eine agilere Cloud-basierte Data Protection und Technologien wie Lösungen für Accelerated Computing und Solid-State Storage sowie Container und ihre zugehörigen Orchestrierungsplattformen (Kubernetes) bieten, sondern auch den Grundsätzen des softwarebasierten Scale-out-Designs folgen. Da Datenschutz für alle befragten IT-Abteilungen ein wichtiges Thema ist, ist Cybersicherheit eine kritische Funktion. In vielen Fällen kann sie ein Grund für eine Umstellung auf die Cloud sein (wenn die Sicherheitsfunktionen der Public Cloud diejenigen von kleineren Unternehmen übertreffen) oder ist – was häufiger der Fall ist – Anlass für die Platzierung von Workloads in On-Premises-Infrastruktur (wenn die Public Cloud den strengen Sicherheitsanforderungen nicht gerecht wird). Cloud-basierte Data Protection bietet Vorteile in Bezug auf Benutzerfreundlichkeit, Skalierbarkeit und Effizienz, die bei herkömmlicher Infrastruktur nicht verfügbar sind. Und da sowohl Unternehmen als auch Privatanwender immer häufiger Echtzeitreaktionen und eine maßgeschneiderte Interaktion mit Lieferanten erwarten, basieren Anwendungen der nächsten Generation oft auf performanceorientierten Technologien wie Accelerated Computing und Solid-State-Speichermedien. ©2020 IDC Nr. US46637920 5
Die von IDC durchgeführte Primärerhebung von Anfang 2020 wirft zusätzliches Licht auf die Ziele und beliebten Technologien, die von Unternehmen im Rahmen ihrer Anstrengungen für modernisierte Infrastruktur bereitgestellt werden. Bei der Frage nach allgemeinen Strategien für eine modernisierte Infrastruktur geben die meisten Unternehmen, die einer bestimmten Strategie folgen, an, bei Stilllegungen von Legacy-Infrastruktur den Großteil der On-Premises Workloads in software- und serverbasierte Architekturen zu verlegen. Eine auf softwarebasierte Designs basierende IT- Infrastruktur bietet mehr Agilität und Flexibilität, um eine Vielzahl unterschiedlicher Workload- Anforderungen zu erfüllen. Interessanterweise liegt der Schwerpunkt der am zweithäufigsten befolgten allgemeinen Strategie für eine modernisierte Infrastruktur stärker auf individuellen Workload- Anforderungen, doch auch diese Unternehmen setzten auf eine Verschiebung in eine software- und serverbasierte Infrastruktur, wann immer dies möglich war. 85,1 % der Unternehmen betrachteten softwarebasierte Flexibilität als sehr wichtig oder extrem wichtig für ihre Initiativen für eine modernisierte Infrastruktur. Serveraktualisierungen aufgrund von höheren Anforderungen an Performancedichte Die drei wichtigsten Faktoren für die Aktualisierung der Serverinfrastruktur sind eine höhere Infrastrukturdichte, höhere Verfügbarkeit zur Reduzierung von Ausfallzeiten und eine höhere Kapazität von serverbasiertem Storage (siehe Abbildung 2). Angesichts dieser Ziele ist es nicht verwunderlich, dass 78,3 % der Unternehmen es vorziehen, zu einer von mehreren neueren Serverarchitekturen zu wechseln, anstatt einfach nur leistungsstärkere Versionen ihrer Legacy-Server zu kaufen. Insbesondere konvergente und hyperkonvergente Infrastrukturen bieten Unternehmen, die eine verbesserte IT-Infrastrukturdichte benötigen, eine hervorragende Option für viele Workload-Typen. Generell erzielten Unternehmen, die ihre Server aktualisiert haben, überzeugende Verbesserungen hinsichtlich Performance, Kapazität, Verwaltbarkeit sowie Kosten und hatten Zugriff auf eine Vielzahl von Vorteilen, die nur neue Hardware bieten kann und die mit Legacy-Servern nicht verfügbar gewesen wären. ©2020 IDC Nr. US46637920 6
ABBILDUNG 2 Treibende Faktoren für Serveraktualisierungen Höhere Dichte im Rechenzentrum (wie leistungsstärkere Server pro Rack) 37,6 Höhere Verfügbarkeit und Ausfallsicherheit 37,1 Höhere interne Storage-Kapazität für Anwendungen 36,7 Verbesserte Hardwaresicherheit 34,5 Höhere Datenausfallsicherheit 33,9 Höhere oder zuverlässigere Workload-Performance 29,9 Vereinfachtes Management (über verbesserte Managementtools) 27,5 Geringere oder besser vorhersehbare Anwendungslatenz 21,3 Reduzierte Kosten 19,8 Sonstiges 0,0 0 10 20 30 40 (% der Befragten) n = 603 Quelle: IDC: Modernized Infrastructure Survey, 2020 Serveraktualisierungen können verschiedene Vorteile einer modernisierten Infrastruktur bieten: ▪ Unternehmen erzielten eine höhere Performancedichte, wobei 78,6 % der Befragten Performanceverbesserungen von 25 % oder mehr erzielten. ▪ Server mit höherer Dichte ermöglichen eine dichtere Workload-Konsolidierung, sodass Unternehmen die Infrastruktur in Zukunft optimieren können. Laut Umfrage erreichten 69,6 % der Unternehmen eine Verbesserung der Rechenzentrumsdichte von 25 % oder mehr. ▪ Die Befragten nannten außerdem Hardwarevorteile als einen der wichtigsten Aspekte der Serveraktualisierung. Ein besserer Zugriff auf Komprimierungs- und Verschlüsselungstechnologien wie Hardwareunterstützung durch Co-Prozessordesigns, bessere Sicherheitsfunktionen (einschließlich Zertifizierungen, Multi-Faktor-Authentifizierung, sicheres Key-Management und Root-of-Trust-Funktionen) sowie umfassendere Funktionen für das Monitoring des Integritätsstatus standen auf der Liste der wichtigsten Hardwarevorteile bei einer Serveraktualisierung ganz oben. ©2020 IDC Nr. US46637920 7
Storage-Aktualisierungen aufgrund von höheren Anforderungen an Kapazitätsdichte Bei der digitalen Transformation muss eine wesentlich größere Menge von Daten erfasst, gespeichert, geschützt und analysiert werden. Dies erfordert eine viel stärkere an Echtzeit und Verteilung orientierte Ausrichtung für Workloads und Daten. Insbesondere bei Storage sind Unternehmen an einer höheren Kapazitätsdichte und einer umfangreichen Verbesserung des Datenmanagements interessiert. Zu den wichtigsten Faktoren für Storage-Aktualisierungen zählen der Wunsch einer Umstellung auf effizientere Storage-Lösungen mit höherer Dichte, der Zugriff auf neue Datendienste der Enterprise-Klasse, die mit vorhandenem Storage nicht verfügbar sind, und Performanceverbesserungen (siehe Abbildung 3). ABBILDUNG 3 Treibende Faktoren für Speicheraktualisierungen Wunsch, auf eine Storage-Lösung mit höherer Dichte umzustellen, um die Betriebseffizienz zu verbessern 46,8 Funktionale Anforderungen (d. h. erforderliche Funktionen sind bei vorhandenem Storage nicht 44,4 verfügbar) Änderung der Datenanforderungen (z. B. größerer Bedarf an unstrukturierten Daten und Anwendungen 40,9 der nächsten Generation) Verschiebung von Workloads an anderen Standort (von On-Premise-Standorten in Public Cloud usw.) 39,1 Performanceverbesserungen 36,3 Umstellung auf eine andere Art von Storage- Architektur 31,0 Verbesserungen der Verfügbarkeit 27,2 Sonstiges 0,0 0 10 20 30 40 50 (% der Befragten) n = 614 Quelle: IDC: Modernized Infrastructure Survey, 2020 ©2020 IDC Nr. US46637920 8
Die Umfrageteilnehmer erzielten spürbare Verbesserungen der Storage-Infrastruktur: ▪ 82,2 % der Befragten verbesserten die Performance um mindestens 25 %, 44,1 % der Befragten um mindestens 50 %. ▪ Die neuere Hardware war wesentlich effizienter – 77,8 % der Befragten reduzierten ihren Energie- und Platzbedarf um mindestens 25 %. ▪ 69,3 % der Befragten managen ihre strategischen Workloads so, dass sie eine Verfügbarkeit von mindestens „99,99 %“ erreichen, 20,9 % verbesserten ihre allgemeine Verfügbarkeit aufgrund der Storage-Aktualisierung gar auf „99,999 %“. Beim letzten Umfrageergebnis sollten Leser beachten, dass viele Public Clouds keine SLA mit „99,99 %“ anbieten und bei denen, die es tun, oft eine Zusatzgebühr zu entrichten ist. Unternehmen, die eine Verfügbarkeit auf diesem Level benötigen, entscheiden sich für diese Workloads in der Regel für eine On-Premises-Platzierung (herkömmliche IT oder Private Cloud). Neue Multi-Core-CPUs können einen deutlich höheren Datendurchsatz als ältere CPUs erzielen. Deshalb ist für Unternehmen, die ihre Server aktualisieren, besonders wichtig, auch eine Storage- Aktualisierung durchzuführen, um einen neuen Engpass zu vermeiden. Neuere Speichertechnologien wie NVMe und Solid-State Storage können diese höhere Verarbeitungsgeschwindigkeit wesentlich effizienter nutzen als ältere Technologien mit rotierenden Festplatten, was insbesondere für latenzabhängige Workloads ein wichtiger Faktor ist. Durch die Kombination von leistungsfähigeren Computing-Ressourcen und Storage mit niedrigerer Latenz lässt sich die Server-CPU-Auslastung deutlich erhöhen. Dadurch sind Kosteneinsparungen nicht nur beim Erwerb neuer Server, sondern auch bei den Lizenzierungskosten für die Anwendungen auf diesen Servern möglich (da weniger Server erforderlich sind, um eine bestimmte Performanceanforderung zu erfüllen). Unabhängig davon, ob ein System schon heute tatsächlich die Leistung von NVMe für Workloads benötigt, gehen die meisten Unternehmen davon aus, migrieren zu müssen, weil sie während ihrer DX-Initiative weiterhin Anwendungen der nächsten Generation implementieren werden. Die Fähigkeit zur unterbrechungsfreien Unterstützung von NVMe und der zugehörigen Technologien (wie NVMe over Fabrics) wird in Zukunft immer wichtiger, wenn Unternehmen sowohl die Server- als auch die Storage- Infrastruktur aktualisieren. Data-Protection-Aktualisierungen aufgrund von modernen Anwendungen und Datenwachstum Bei der Data-Protection-Aktualisierung liegt der Schwerpunkt der Unternehmen auf der Verarbeitung stark wachsender Datenmengen in heterogenen Umgebungen, während sie gleichzeitig Recovery- SLAs erfüllen und Kosten managen müssen. Der wichtigste einzelne Faktor für Data-Protection-Aktualisierungen war das starke Datenwachstum. Das heißt, dass Unternehmen mit ihrer vorhandenen Data-Protection-Infrastruktur und bestehenden Workflows Backup- und/oder Recovery-Zeitfenster nicht mehr ordnungsgemäß erfüllen konnten (siehe Abbildung 4). Zu den weiteren Faktoren gehörte die Notwendigkeit, immer strengeren Recovery- Anforderungen gerecht werden zu müssen. Unternehmen mussten zudem moderne Anwendungsbereitstellungsmodelle wie Container unterstützen können und wollten Disaster- Recovery- und/oder Business-Continuity-Verfahren verbessern. Neuere Speicherarchitekturen und der Zugriff auf neuere Technologien wie Cloud und Solid-State Storage bedeuten, dass sich die Data- Protection-Landschaft für die meisten Unternehmen seit der letzten Aktualisierung der Speichertechnologie erheblich verändert hat. Es gibt signifikante Chancen, nicht nur die Kosten zu senken, sondern auch die Performance und Effizienz der Data Protection zu verbessern. ©2020 IDC Nr. US46637920 9
ABBILDUNG 4 Treibende Faktoren von Data-Protection-Aktualisierungen Konnte Anforderungen an Backup- und/oder Recovery-Zeitfenster nicht mehr adäquat erfüllen 56,2 Steigende Verfügbarkeitsanforderungen 54,4 Bereitstellung neuer Modelle der Anwendungsbereitstellung (z. B. Container) 50,7 Wechsel zu einer anderen Architektur 45,2 Implementierung/Verbesserung von DR- und/oder BC-Verfahren 43,1 Sonstiges 0,0 0 10 20 30 40 50 60 (% der Befragten) n = 631 Quelle: IDC: Modernized Infrastructure Survey, 2020 Bei unseren Umfrageteilnehmern führte die Data-Protection-Aktualisierung zu deutlichen Verbesserungen und machte die Notwendigkeit von bestimmten wichtigen Funktionen deutlich: ▪ 85,4 % der Befragten verbesserten ihre Recovery Point Objective (RPO) um mindestens 25 %, während 84,8 % ihre Recovery Time Objective (RTO) um denselben Faktor optimierten. ▪ 48,5 % der Befragten reduzierten Ausfälle bei Backup- und Recovery-Jobs um mindestens die Hälfte und 45,9 % verbesserten die administrative Effizienz bei Backups um mindestens 50 %. ▪ 67,2 % der Befragten bevorzugten eine Scale-out-Data-Protection-Infrastruktur und 86,1 % betrachteten die Unterstützung für Container als sehr wichtig oder extrem wichtig. Hohe Datenwachstumsraten sind in den meisten Unternehmen ein entscheidender Faktor für die Durchführung einer Data-Protection-Aktualisierung. Eine modernisierte Storage-Infrastruktur beinhaltet häufig Funktionen, die einen erheblichen Unterschied bei der Kapazitätsauslastung machen können, beispielsweise Inline-Komprimierung und -Deduplizierung. Bei Verwendung in Hybrid-Cloud- Umgebungen können diese Vorteile auf die in der Public Cloud gespeicherten Daten ausgedehnt werden. Wenn Daten in der Public Cloud gespeichert sind, müssen Unternehmen auch dort die richtigen Data-Protection- und Recovery-Strategien implementieren. Die Verschlüsselung für abgelegte Daten („Data at Rest“) ist zwar üblich, diese aber auch während der Übertragung („Data in Motion“) zu verschlüsseln, ist noch keine gängige Praxis. Diese Funktion kann Unternehmen jedoch dabei helfen, eine sicherere Infrastruktur zu erstellen, die einen besseren Datenschutz für deren Kunden bietet. Data Protection und Recovery erfordern möglicherweise separate Strategien, um sicherzustellen, dass sowohl die Datenintegrität beim Schreiben und Migrieren erhalten bleibt als auch eine Recovery im benötigten Rahmen der RPOs/RTOs möglich ist. Strategien für Cyber-Recovery, die Schutz vor Beschädigung und Ransomware-Angriffen bieten, sind Teil dieses Plans. Das gilt auch für Snapshots, Replikation, Verfügbarkeitszonen und „Air Gapped Data Vaults“. ©2020 IDC Nr. US46637920 10
Neuere Modelle zur Anwendungsbereitstellung wie Container erweitern die Möglichkeiten zur Unterstützung schnellerer und effizienterer Recovery-Vorgänge, wenn die Data-Protection- Infrastruktur diesen Grad an Granularität ebenfalls unterstützt. Darüber hinaus ist die Notwendigkeit, die gesamte containerbasierte Umgebung (einschließlich der Anwendung) zu schützen und wiederherzustellen von größter Wichtigkeit, wenn containerbasierte Anwendungen für erfolgskritische Workloads in die Produktion verschoben werden. Und angesichts des starken Datenwachstums, das voraussichtlich mindestens die nächsten fünf Jahre anhalten wird, treibt die Möglichkeit einer einfachen Skalierung der Data-Protection-Infrastruktur für eine unterbrechungsfreie Unterstützung des Unternehmenswachstums das Interesse an der Verwendung von Scale-out-Architekturen voran. Aktualisierungen mittels konvergenter und hyperkonvergenter Infrastruktur für höhere Mitarbeiterproduktivität Angesichts des zunehmenden Tempos und der wachsenden Dynamik heutiger Unternehmen ist IT- Agilität von höchster Bedeutung. Konvergente und hyperkonvergente Infrastrukturen bieten beide eine einfachere Beschaffung, eine schnellere Bereitstellung, ein vereinheitlichtes Management und einen zentralen Supportansprechpartner, unterscheiden sich jedoch geringfügig in den Schwerpunkten ihrer Architekturen. In der Regel werden in konvergenten Infrastrukturen separate Server-, Storage-, Data- Protection- und Netzwerkkomponenten in einer einzigen Einheit zusammengefasst und als kompatibel vorzertifiziert. Bei der hyperkonvergenten Infrastruktur werden dagegen serverbasierte, softwaredefinierte Bausteine verwendet, in denen alle Ressourcen gepoolt sind. Mit einer konvergenten Infrastruktur können Unternehmen Konfigrationen auswählen, die auf modularen und/oder rackmontierten Servern und Storage der Enterprise-Klasse basieren, und diese unabhängig skalieren. Bei einer hyperkonvergenten Infrastruktur wählen Unternehmen dagegen aus einer Vielzahl von serverbasierten Bausteinen aus, die in einer Clusterkonfiguration miteinander verbunden sind, jeweils Computing- und Storage-Ressourcen bereitstellen und softwarebasierten virtuellen Storage über die Nodes im Cluster hinweg skalieren. Beide Ansätze ermöglichen Unternehmen eine viel schnellere Bereitstellung neuer Infrastruktur als bisher (siehe Abbildung 5). Eines der wichtigsten Verkaufsversprechen für konvergente und hyperkonvergente Infrastruktur ist, dass sie die Infrastruktur sowohl vereinfachen als auch modernisieren. Wie bei der Public Cloud ist die Bestellung erforderlicher Ressourcen einfacher, Infrastruktur kann schneller bereitgestellt werden, Unternehmen müssen sich keine Gedanken mehr über Kompatibilitätsprobleme zwischen Ressourcen-Tiers machen und die gesamte „Plattform“ wird über eine einzelne, zentrale Konsole gemanagt und der Support wird von einem einzigen Anbieter bereitgestellt. Auf diese Weise werden bei konvergenten und hyperkonvergenten Infrastrukturen viele der Prinzipien der Cloud übernommen – ein Faktor, der nicht nur die On-Premises-Bereitstellung vereinfacht, sondern auch ein einfacheres Hybrid-Cloud-Management ermöglicht. ©2020 IDC Nr. US46637920 11
ABBILDUNG 5 Wichtige Treiber für Aktualisierungen mittels konvergenter und hyperkonvergenter Infrastruktur Konvergente Infrastruktur Hyperkonvergente Infrastruktur Höhere Produktivität der IT- Mitarbeiter 18,2 Höhere Leistung 13,7 Rechenzentrumskonsolidierung 12,5 Rechenzentrumskonsolidierung 12,6 Höhere Produktivität der IT- Verbesserte Ressourcenauslastung 11,1 Mitarbeiter 12,2 Modernisierung der Infrastruktur 8,8 Verbesserung von Backup/Recovery 11,0 Verbesserung der Verbesserung der Betriebseffizienz 10,6 Betriebseffizienz 8,1 0 5 10 15 20 0 5 10 15 (% der Befragten) (% der Befragten) n = 389 Quelle: IDC: Modernized Infrastructure Survey, 2020 ©2020 IDC Nr. US46637920 12
Die Umfrageteilnehmer beobachteten deutliche Vorteile durch die Bereitstellung einer konvergenten Infrastruktur (die 43,2 % der Befragten in ihren eigenen On-Premises-Rechenzentren implementiert hatten): ▪ Durch die Bereitstellung einer konvergenten Infrastruktur reduzierte sich der Zeitaufwand für die Bereitstellung von Infrastrukturen bei 67,0 % der Befragten um mindestens 50 %. ▪ Die Bereitstellung einer konvergenten Infrastruktur verbesserte die Anwendungsleistung bei 71,4 % der Befragten um mindestens 50 %. ▪ 77,0 % der Befragten konnten die Investitionskosten um mindestens 30 % reduzieren. Die Umfrageteilnehmer beobachteten deutliche Vorteile durch die Bereitstellung einer hyperkonvergenten Infrastruktur (die 31,8 % der Befragten in ihren eigenen On-Premises- Rechenzentren implementiert hatten): ▪ Durch eine hyperkonvergente Infrastruktur reduzierte sich der Zeitaufwand für die Bereitstellung von Infrastrukturen bei 64,3 % der Befragten um mindestens 50 %. ▪ Eine hyperkonvergente Infrastruktur verbesserte die Anwendungsleistung bei 74,1 % der Befragten um mindestens 50 %. ▪ 76,0 % der Befragten konnten die Produktivität um mindestens 30 % steigern. Ein interessantes Ergebnis ist, dass die Steigerung der IT-Mitarbeiterproduktivität der wichtigste Faktor für die Bereitstellung konvergenter Infrastruktur war. Zu beachten ist, dass dieser Ansatz sowohl die Bestellung als auch Installation von Infrastruktur beschleunigt und die vereinheitlichte Steuerungsebene das Management von Computing-, Storage- und Netzwerkressourcen vereinfacht. Obwohl hyperkonvergente Infrastruktur dasselbe Wertangebot umfasst, waren die Käufer dieser Art von Infrastruktur aber stärker an der Verbesserung der Anwendungsleistung interessiert. Die Konsolidierung des Rechenzentrums, einschließlich der Rationalisierung der Infrastruktur sowie der Reduzierung von Energieverbrauch und Platzbedarf, war für beide Gruppen einer der wichtigsten Faktoren. Umstellung auf flexiblere Nutzungsmodelle Abonnementbasierte Preis- und Bereitstellungsmodelle bieten Unternehmen eine Reihe von Vorteilen. Flexible Nutzungsmodelle sorgen für IT-Agilität, ermöglichen eine schnelle Bereitstellung neuer Infrastruktur und lassen IT-Manager die Ausgaben enger an der tatsächlichen Nutzung ausrichten. Darüber hinaus bieten sie Optionen, die es ermöglichen, IT-Infrastruktur aus der Bilanz zu entfernen, wenn das betriebswirtschaftlich sinnvoll ist. All das führt dazu, dass das Unternehmen schneller auf sich verändernde Marktbedingungen reagieren und die IT-Abläufe effizienter gestalten kann. Die Nutzung abonnementbasierter Preisoptionen für On-Premises- und Off-Premises-IT-Infrastruktur (z. B. für herkömmliche IT, Private Cloud und Public Cloud) hat sich deutlich beschleunigt, da diese die Auswahlmöglichkeiten von Nutzungs- und Bereitstellungsmodellen effektiv voneinander trennen und dadurch mehr Freiheit bei der Auswahl der besten Bereitstellungsoption für den jeweiligen Workload bieten. Die wichtigsten Faktoren hinter dieser schnellen Einführung sind die Notwendigkeit, Ausgaben enger an die tatsächliche Nutzung und/oder den tatsächlichen Verbrauch zu koppeln, und der Wunsch, IT-Infrastrukturressourcen aus der Bilanz zu entfernen (siehe Abbildung 6). Für alle Public- Cloud-Services werden abonnementbasierte Preise angeboten und 60,8 % der Befragten nutzen diese für mindestens einige On-Premises-Systeme (Private Cloud und herkömmliche IT-Infrastruktur). ©2020 IDC Nr. US46637920 13
ABBILDUNG 6 Wichtigste Treiber für den Wunsch nach abonnementbasierten Preismodellen Wir möchten Ausgaben enger an der tatsächlichen Nutzung und/oder dem tatsächlichen Verbrauch 55,6 ausrichten. Wir möchten IT-Infrastrukturressourcen aus unserer Bilanz entfernen. 38,0 Wir betrachten dies als eine Möglichkeit, kurzfristige IT-Infrastrukturkosten zu senken. 6,4 Sonstiges 0,0 0 10 20 30 40 50 60 (% der Befragten) n = 900 Quelle: IDC: Modernized Infrastructure Survey, 2020 Viele Unternehmen begrüßen die Agilität von abonnementbasierten Preisen bereits, um die anfängliche Bereitstellung von Ressourcen zu beschleunigen oder die vorhandene Infrastruktur zu erweitern. „Pay As You Grow“- und „Pay Per Use“-Nutzungsmodelle ermöglichen Unternehmen außerdem eine flexiblere Reaktion auf das sich ändernde Geschäftsklima. Auch wenn die Bedingungen je nach Anbieter unterschiedlich sind, können diese Nutzungsmodelle bei sinkenden Anforderungen an die IT-Infrastruktur aufgrund von abgeschlossenen Projekten, rückläufigem Geschäftsvolumen oder anderen wirtschaftlichen Auswirkungen die Möglichkeit bieten, IT-Ressourcen und -Kosten schnell herunter zu skalieren. Das ist eine weitere Seite der „Agilitätsmedaille“, bei der abonnementbasierte Preismodelle Vorteile gegenüber Modellen mit herkömmlichem direktem Erwerb bieten. Auswahl der optimalen Umgebung für jeden Workload Als Public-Cloud-Services erstmals verfügbar wurden, führten Unternehmen noch alle Workloads in herkömmlichen On-Premises-Infrastrukturen aus. Zu diesem Zeitpunkt drehten sich Workload-Platzierungsstrategien in der Regel um die Frage, welche Workloads sich in die Public Cloud verschieben ließen und wie die Verschiebung umgesetzt werden Hybrid-Cloud-Plattformen soll (Rehosting, Ersatz durch eine SaaS-Option, Neugestaltung ermöglichen es Unternehmen, die usw.). Diese frühe Nutzung der Public Cloud hat Unternehmen richtige Infrastruktur für jeden unter anderem in Bezug auf Anschaffung, Agilität, Bereitstellung, Workload auszuwählen. So können Infrastrukturerweiterung und -verkleinerung sowie sie effiziente Entscheidungen über Technologieaktualisierung unterschiedliche und bessere die Platzierung von Workloads Betriebsmodelle ermöglicht. Seither hat sich viel geändert, etwa die treffen, um die Anforderungen Optionen für Bereitstellungs- und Nutzungsmodelle. Viele der besser zu erfüllen und gleichzeitig ursprünglichen Vorteile der Public Cloud lassen sich jetzt die Kosten kontrollieren zu können. ©2020 IDC Nr. US46637920 14
problemlos mit On-Premises-Infrastruktur und -Bereitstellungsoptionen replizieren, die für viele Workloads wiederum die Anforderungen an Performance, Verfügbarkeit, Sicherheit, Compliance, Governance und Kosten besser erfüllen können. Heute müssen Workload-Platzierungsstrategien diese verschiedenen Optionen berücksichtigen und sich viel genauer auf die individuellen Workload- Anforderungen konzentrieren, um zu bestimmen, wo sich der Workload letztlich befinden soll. Hybrid- Cloud-Plattformen ermöglichen es Unternehmen, die richtige Infrastruktur für die richtigen Workloads auszuwählen. So können sie effiziente Entscheidungen über die Platzierung von Workloads treffen, um die Anforderungen besser zu erfüllen und gleichzeitig die Kosten kontrollieren zu können. Faktoren, die die Workload-Platzierung beeinflussen Unter den zehn in der Umfrage erwähnten verschiedenen Enterprise Workloads bewerteten die Befragten Anwendungen für die Zusammenarbeit, IT-Infrastrukturanwendungen und Business- Anwendungen als aus heutiger Sicht am kritischsten für ihr Unternehmen. Beispiele für diese Anwendungstypen sind E-Mail- und Messaging-Plattformen, Datenbanken wie Oracle und SQL Server, virtuelle Desktopinfrastruktur (VDI), Enterprise Resource Planning und Customer Relationship Management (SAP, Oracle NetSuite usw.). Zu den wichtigsten Initiativen, die Unternehmen während einer digitalen Transformation durchführen, zählen: Optimierung der IT-Infrastruktur, Business-Anwendungen und strukturierte Datenanalysen. Beispielsweise ist im Bereich der IT-Infrastruktur, der Services wie VDI umfasst, Solid-State Storage von entscheidender Bedeutung, um die Auswirkungen von Lastspitzen beim Start, den Anmeldungen/Abmeldungen und dem Betrieb der Anwendungen im Laufe des Tages auszugleichen, sodass Endnutzer eine konsistente Performance erhalten. Effiziente und leistungsfähige Snapshot- und Clone-Technologien sind wichtig für die Maximierung der Kapazitätsauslastung ohne Beeinträchtigung der Performance. Für wachsende Unternehmen ist die Fähigkeit zur unterbrechungsfreien Erweiterung der VDI ohne negativen Auswirkungen für die vorhandenen Endnutzer erforderlich, um die Verfügbarkeit betreffende Service-Level-Agreements zu erfüllen. Zu den anderen Komponenten der IT-Infrastruktur gehören Datei-, Druck-, Verzeichnis- und Sicherheitsservices, die alle die Spitzenleistung, hohe Verfügbarkeit und unterbrechungsfreie Skalierbarkeit erfordern, die eine modernisierte Infrastruktur bietet. Die IT-Infrastruktur gilt als „Top- Anwendung“, da sie andere Aspekte der digitalen Transformation ermöglicht und nach Bedarf weiterentwickelt werden muss, um die anspruchsvollen DX-Anforderungen zu erfüllen. Im Rahmen der DX-Maßnahmen sollten Unternehmen ihre vorhandenen Workloads überprüfen, um zu ermitteln, ob sie diese beibehalten oder stilllegen sollten. Wenn Unternehmen entscheiden, sie beizubehalten, muss bestimmt werden, ob diese Workloads weiter am vorhandenen Standort bleiben oder in ein anderes Bereitstellungsmodell verschoben werden sollten (entweder eine neue Art von modernisierter On-Premises-Infrastruktur oder eine Cloud-basierte Umgebung). Die Entscheidungen zur Workload-Platzierung sollten sich an den Nutzungsmustern und -anforderungen der einzelnen Workloads orientieren. IDC ist der Ansicht, dass diese Entscheidungen über eine Hybrid-Cloud- Strategie getroffen werden müssen, die drei Bereitstellungsmodelle bietet: herkömmliche On- Premises-Umgebung, Private Cloud und Public Cloud. Das bedeutet, dass zunächst eine Hybrid- Cloud-Strategie als Richtschnur für Technologieaktualisierungen, für eine modernisierte Infrastruktur und für Entscheidungen zur Workload-Platzierung entwickelt werden muss. Ziel dieser Strategie sollte es sein, eine konsistente Cloud-Experience über alle Bereitstellungsmodelle hinweg zu erreichen, die eine einfache und effiziente Workload-Platzierung und Datenmobilität unterstützen – gemanagt über ein einziges Dashboard. Workloads können dann ausgewertet, in das optimale Bereitstellungsmodell ©2020 IDC Nr. US46637920 15
platziert und, wenn sich die Dinge im Laufe der Zeit ändern, einfach wieder in ein anderes Modell verschoben werden. Der Umfrage zufolge sind die wichtigsten Überlegungen, die bei der Ermittlung der Workload- Platzierung berücksichtigt werden, Sicherheit, Performance, einfaches Management, Verfügbarkeit und Kosten (siehe Abbildung 7). ABBILDUNG 7 Faktoren, die die Workload-Platzierung beeinflussen Sicherheit 76,4 Leistung 70,0 Managementüberlegungen (einfaches Management usw.) 62,4 Verfügbarkeit 58,7 Kosten 54,0 Governance und Compliance 47,9 Agilität 46,1 Beschaffungsbeschränkungen 37,3 Sonstiges 0,0 0 10 20 30 40 50 60 70 80 (% der Befragten) n = 900 Quelle: IDC: Modernized Infrastructure Survey, 2020 Sicherheit Sicherheit ist die allerwichtigste Überlegung bei der Workload-Platzierung, was sich darin zeigt, dass 76,4 % der Befragten sie als Hauptaspekt nennen. Angesichts der Zunahme von Workloads über mehrere Bereitstellungsmodelle, von denen einige an Drittanbieter ausgelagert wurden, verschwimmen die Grenzen zwischen IT-Umgebungen und denen, die sie managen. Herkömmliche IT-Umgebungen werden durch Firewalls, Endpunktsicherheitssysteme und DMZs geschützt. Unternehmen verfügen außerdem über bewährte Prozesse, um die richtigen Berechtigungen für Zugriffe festzulegen, Governance durchzusetzen und die Compliance, gegebenenfalls mit branchenspezifischen Anforderungen, sicherzustellen. Wenn Workloads und Daten stärker verteilt werden, müssen Unternehmen Sicherheits-, Data-Protection- und Recovery-Strategien weiterentwickeln, um die geschäftlichen Anforderungen zu erfüllen, unabhängig davon, welches Bereitstellungsmodell gewählt wurde. Für die Sicherheit in der Public Cloud tragen sowohl die Public- Cloud-Anbieter als auch die Kunden selbst gemeinsam Verantwortung. Da Unternehmen in Cloud- basierten Umgebungen nicht unbedingt dieselben Tools und Verfahren wie für herkömmliche IT- Infrastrukturen verwenden können, ist die Wahl der richtigen Hybrid-Cloud-Strategie zum Schutz der wertvollen digitalen Ressourcen sehr wichtig. Wie bereits erwähnt, besteht der Zweck einer Hybrid Cloud darin, ein einheitliches Framework für das IT-Servicemanagement für eine Vielzahl ©2020 IDC Nr. US46637920 16
unterschiedlicher Bereitstellungsmodelle zu bieten – und Sicherheit ist nur einer der Managementbereiche, die vom richtigen Hybrid-Cloud-Framework profitieren. ©2020 IDC Nr. US46637920 17
Leistung 70,0 % der Befragten nennen Performance als das zweitwichtigste Kriterium, das Entscheidungen zur Workload-Platzierung beeinflusst. Unternehmensanwendungen hingen ursprünglich in puncto Performance und Verfügbarkeit von der zugrunde liegenden Infrastruktur ab. Allerdings kann Performance für verschiedene Workloads Unterschiedliches bedeuten – bei einigen geht es nur um Latenz, bei anderen um den Durchsatz oder die Abhängigkeit vom Datenstandort. Um sich für das richtige Bereitstellungsmodell entscheiden zu können, müssen Unternehmen überlegen, was „Performance“ für die einzelnen Workloads bedeutet. On-Premises-Bereitstellungsoptionen können bestimmte Leistungsanforderungen erfüllen, mit denen eine Public Cloud Probleme hat. Ein Beispiel wäre, wenn die durch einen Hop zu einem Public-Cloud-Rechenzentrum entstehende Latenz die Verwendung für bestimmte sehr latenzempfindliche Workloads ausschließt. Einige Workloads, die nicht für die Nutzung von Scale-out-Cloud-Architekturen konzipiert sind, erfordern eine zugrunde liegende Infrastruktur, die anspruchsvolle Hardwareanforderungen erfüllen kann, während andere von der Möglichkeit profitieren in einer Public Cloud je nach Bedarf und on demand Tausende von Cores hinzufügen zu können. Darüber hinaus stehen zahlreiche Ressourcen für Accelerated Computing und Solid-State-Storage als Cloud-native Services zur Verfügung, die einen schnellen und einfachen Zugriff auf diese Art von Ressourcen ermöglichen, wenn Unternehmen sie noch nicht selbst besitzen bzw. sie nicht in einer On-Premises-Infrastruktur bereitstellen möchten. In anderen Fällen möchten IT-Manager ausdrücklich, dass diese Ressourcen aufgrund der Datenlast oder aus anderen Gründen in einer On-Premises-Infrastruktur bereitgestellt werden. Probleme mit der Datenlast müssen berücksichtigt werden, da Unternehmen Workload-Platzierungsstrategien entwickeln möchten, die die Verschiebung großer Datenvolumen zwischen verschiedenen Standorten minimieren. Einfaches Management Nach Sicherheit und Performance betrachteten 62,4 % der Unternehmen Managementüberlegungen als drittwichtigsten Faktor für Workload-Platzierungsentscheidungen. Jedes Unternehmen verfügt über eigene Managementtools und -workflows, die zum Erreichen der Geschäftsziele bereitgestellt werden. Bei der Entscheidung für Bereitstellungsmodelle müssen Unternehmen bewerten, welcher Ansatz am besten zu ihren Anforderungen an tägliche betriebliche Aufgaben wie Performance-Tuning, Verfügbarkeitsmanagement, Bereitstellung zusätzlicher Ressourcen, Ausführung von Backup- und/oder Disaster-Recovery-Strategien und die Unterstützung neuer Paradigmen für die Anwendungsbereitstellung wie Container passt. Bereitstellungsmodelle können außerdem Differenzierungsvorteile für andere Aufgaben bieten, die seltener durchgeführt werden, beispielsweise die Einführung neuer Ressourcen (z. B. Storage-Class Memory oder Lösungen für Accelerated Computing), die Einrichtung zusätzlicher Ressourcen zur Erfüllung saisonaler Anforderungen oder das Management von Technologieaktualisierungen. Unternehmen wünschen sich vor allem deshalb mehr IT-Agilität, damit sie besser auf diese Art von Anforderungen reagieren können. Die Public Cloud bietet beispielsweise ein abonnementbasiertes Preismodell und eine bessere IT-Agilität als eine herkömmliche IT-Infrastruktur. Zudem können Administratoren über native Cloud-Services schnell auf neue Technologien zugreifen und Unternehmen können die Managementverantwortung an den Cloud-Anbieter auslagern. Eine Private Cloud bietet viele dieser Vorteile mit einer On-Premises- Infrastruktur, die bestimmte Leistungs- und Verfügbarkeitsanforderungen erfüllen kann, die Public-Cloud- Anbieter nicht vertraglich garantieren. Allerdings müssen Kunden diese Infrastruktur selbst managen. Andere Workloads sollten aufgrund von bestimmten Workload-Anforderungen oder Geschäftszielen am besten in einer herkömmlichen IT-Infrastruktur verbleiben. Um die Workload-Platzierung zu optimieren, müssen Unternehmen alle drei Bereitstellungsmodelle zur Verfügung stehen. ©2020 IDC Nr. US46637920 18
Verschiedene Public Clouds (z. B. Amazon und Google) bieten Cloud-native Services, die sie möglicherweise von anderen Cloud-Anbietern unterscheiden, Viele Unternehmen nutzen zudem mehrere Public Clouds. Verschiedene Public Clouds bieten unterschiedliche Betriebsmodelle und Managementoberflächen, die sich wiederum von dem unterscheiden, was Unternehmen für die On- Premises-Infrastruktur verwenden. Das Management jeder Umgebung mit den nativen Ansätzen des Cloud-Anbieters bedeutet zwangsläufig, dass IT-Manager unterschiedliche Managementdashboards und -workflows erlernen und verwenden müssen, was erhebliche zusätzliche Komplexität bedeutet. Das Ziel einer gut durchdachten Hybrid-Cloud-Strategie besteht darin, auf ein eher einheitliches Betriebsmodell umzusteigen, das nicht nur unterschiedliche Public Clouds umfasst, sondern alle Bereitstellungsmodelle, die möglicherweise noch gemanagt werden müssen. Verfügbarkeit Hohe Anforderungen an die Verfügbarkeit machen aus einem Workload aus Sicht der Umfrageteilnehmer deutlich häufiger einen „strategischen“ Workload als alle anderen Kriterien – 33,3 % der Befragten wählten dies als wichtigste Eigenschaft. Workloads werden außerdem als strategisch definiert, wenn sie einen Wettbewerbsvorteil darstellen und sehr hohe Performanceanforderungen haben. Die Verfügbarkeit war auch ein wichtiges Kriterium für die Ermittlung der Workload-Platzierung und wurde bei 58,7 % der Unternehmen während der Platzierungsentscheidung in Betracht gezogen. Die meisten Public-Cloud-Anbieter legen sich vertraglich nicht auf eine Verfügbarkeit von mehr als „99,99 %“ fest, selbst wenn ihre tatsächliche Performance über einen bestimmten Zeitraum diesen Wert überschreitet. Viele Public-Cloud-basierte Storage-Services bieten sogar eine noch geringere Verfügbarkeitsgarantie. Mit einer On-Premises-Infrastruktur haben IT-Manager mehr Kontrolle, um spezifische Konfigurationen zu erstellen, von denen sie wissen, dass sie eine höhere Verfügbarkeit bieten können als das, was Public-Cloud-Anbieter vertraglich garantieren. Für Workloads, die mit einer Verfügbarkeit von „99,99 %“ gemanagt werden müssen, kann eine Public Cloud angemessen sein (obwohl IT-Manager die zusätzlichen Kosten bewerten müssen, die mit einer garantierten Zusage dieser Verfügbarkeit durch den Public-Cloud-Anbieter verbunden sind). Wenn Workloads eine höhere Verfügbarkeit als „99,99 %“ erfordern, ist die Public Cloud möglicherweise nicht die beste Option. Auch wenn Data Protection und Disaster Recovery in der Public Cloud eine wichtige Komponente der modernisierten Infrastruktur sein können, benötigen einige Workloads möglicherweise eine On- Premises-Bereitstellung, um die Compliance mit strengen RPOs/RTOs oder länderspezifischen Bestimmungen für den Datenstandort sicherzustellen. Kosten Dank der enormen Skalierbarkeit, der flexiblen Agilität und der niedrigen Kosten pro Gigabyte kann die Public Cloud eine kostengünstige Plattform für Workloads sein, die Daten über einen längeren Zeitraum hinweg aufbewahren müssen, die einen unvorhersehbaren und relativ schnellen Zugriff auf neue, möglicherweise saisonale oder projektgesteuerte IT-Ressourcen erfordern und die Nutzungsmuster aufweisen, für die kein umfangreicher kontinuierlicher Datenzugriff oder eine umfangreiche Datenverschiebung erforderlich ist (Überlegungen zur „Data Gravity“). On-Premises- Bereitstellungsoptionen können kosteneffizienter sein, wenn das Workload-Wachstum und die Ressourcenauslastung vorhersehbarer sind. Gleiches gilt, wenn Performance-, Verfügbarkeits- und/oder Sicherheitsanforderungen mit Public-Cloud-Funktionen nicht gut erfüllt werden können, wenn Bestimmungen erfordern, dass Administratoren jederzeit wissen müssen, wo sich Daten innerhalb bestimmter geografische Grenzen physisch befinden, und/oder wenn ein häufigerer Datenzugriff und eine umfangreichere Datennutzung erforderlich sind. Die meisten Unternehmen verfügen in ihrem Anwendungsportfolio über beide Arten von Workloads und eine Hybrid-Cloud-Strategie sorgt dafür, dass optimale Entscheidungen zur Workload-Platzierung auf Grundlage individueller Anwendungsanforderungen getroffen werden können, während gleichzeitig ein konsistentes Betriebsmodell für alle Umgebungen bereitgestellt wird. ©2020 IDC Nr. US46637920 19
Wer zum ersten Mal eine Public Cloud in Betracht zieht, sollte sich bewusst sein, dass die Nutzung der Public Cloud von Administratoren oft verlangt, sich mit neuen Workflows vertraut zu machen. Wenn Unternehmen täglich Cloud-basierte Abläufe abwickeln, wird sich eine Lernkurve einstellen. Häufig fallen auch beträchtliche Kosten an, um Anwendungen an neue Plattformen anzupassen und für die Public Cloud zu optimieren. Unternehmen, die Selfservice-Funktionen mit Public-Cloud-basierten Angeboten ermöglichen möchten, müssen womöglich zusätzliche Schulungen anbieten und sich mit Bedenken bezüglich der Governance auseinandersetzen, die es bei einer On-Premises-Infrastruktur nicht gibt. Es ist zu bedenken, dass laut den Umfrageergebnissen 82,1 % der Befragten Kosten als Grund für die Rückführung von Workloads aus der Public Cloud an On-Premises-Standorte nannten. Die Agilität der Public Cloud wurde zwar zu Recht als attraktiver finanzieller Vorteil angekündigt, doch die Verfügbarkeit unterschiedlicher Nutzungsmodelloptionen für die On-Premises-Infrastruktur kann in diesem Bereich viele derselben Vorteile bieten. Abonnementbasierte „Pay As You Grow“- und „Pay Per Use“-Optionen für die On-Premises-Infrastruktur ermöglichen es der IT, Ausgaben viel enger an die tatsächliche Ressourcennutzung zu binden. Außerdem können Unternehmen ihre IT-Ressourcen aus der Bilanz entfernen. Mit eigenen IT-Infrastrukturprodukten bieten viele Anbieter sowohl vom Kunden gemanagte As-a-Service- als auch vollständig gemanagte Serviceoptionen an und bieten Unternehmen die Möglichkeit, Geräte physisch an einem On-Premises- oder Off-Premises-Standort zu platzieren. Das abonnementbasierte Preismodell ist kein einzigartiger Vorteil der Public Cloud mehr. Unternehmen haben jetzt die Wahl zwischen verschiedenen Bereitstellungs- und Nutzungsmodelloptionen für Produkte und Services, die nichts mit der Public Cloud zu tun haben. DELL TECHNOLOGIES: UMFASSENDES PORTFOLIO FÜR DIE MODERNISIERTE INFRASTRUKTUR Dell Technologies ist ein großer Anbieter von IT-Produkten und -Services für Privatanwender und Unternehmen. Das umfassende Portfolio des Anbieters für Enterprise-Technologie umfasst Produkte von Dell EMC, Secureworks, Virtustream und VMware. Die Angebote decken Cloud-Software, Server, Storage, Data Protection, Netzwerke, konvergente und hyperkonvergente Infrastruktur, softwarebasierte Rechenzentren und Cloud-Plattformen sowie Enterprise-Infrastruktursoftware in den Märkten für Virtualisierung, Storage, Sicherheit, Data Protection und die Hybrid-Cloud- Steuerungsebene ab. Im Markt für Enterprise Storage umfasst das Portfolio des Anbieters Primärspeicher-Plattformen, Storage für unstrukturierte Daten und Lösungen für Software-Defined Storage. Das Unternehmen bietet viele der wichtigsten Technologien – Solid-State Storage, KI-/ML- gesteuertes Management, Cloud-Technologien, softwarebasierte Infrastruktur und Scale-out- Architekturen –, an denen Unternehmen, die eine digitale Transformation durchlaufen, am meisten interessiert sind. Dell EMC Server sowie Dell EMC Storage- und Data-Protection-Marken nehmen in den jeweiligen Branchen eine Führungsposition ein (nach Marktanteil beim Umsatz) und können über virtuelle, Bare-Metal- und Cloud-basierte Umgebungen hinweg eingesetzt werden. Zu diesen Marken zählen PowerEdge-Server, PowerMax-/PowerStore-/PowerVault-/PowerScale-Storage und Data- Protection mit PowerProtect. Die Produkte von Dell Technologies verfügen über Intel Prozessortechnologie und nutzen einzigartige Funktionen wie die Intel QuickAssist-Technologie (QAT). Dell PowerEdge-Server sowie Dell EMC PowerMax-, PowerStore-, PowerVault-, PowerScale-, VxRail- und PowerProtect-Systeme basieren auf skalierbaren Intel Xeon Prozessoren der zweiten Generation. Intel QAT bietet eine softwaregestützte Grundlage für Sicherheit, Authentifizierung und Komprimierung, um die Performance und Effizienz von Plattformen zu verbessern, die diese Technologie nutzen. Das Dell EMC PowerStore Unified Storage- Array ist die erste Storage-Plattform des Anbieters, die diese Technologie nutzt, um eine hardwaregestützte Komprimierung zu unterstützen. Unternehmen können davon ausgehen, dass Intel ©2020 IDC Nr. US46637920 20
Sie können auch lesen