WEIßES PAPIER - DAS GLOBAL COMPUTE NETZWERK POWERING SMART CONTRACTS, DEFI UND DAS INTERNET - CUDOS
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Das Global Compute Netzwerk Powering Smart Contracts, DeFi und das Internet Weißes Papier V3.2 Januar 2021 1 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org www.cudos.org
Inhalt 1. Zusammenfassung 4 1.1 Erklärung zur Verantwortung der Direktoren 6 1.2 Zusammenfassung der rechtlichen Überlegungen, Risiken und Haftungsausschlüsse 7 2. Marktübersicht 9 2.1 Cloud Computing heute 9 2.2 Cloud Computing morgen 10 2.3 Neues Computerparadigma: Blockchain 12 2.4 Warum jetzt? 14 2.4.1 Blockchain-Anwendungen: DeFi 14 2.4.2 Physikalische Grenzen 14 2.4.3 Verbesserungen der Netzwerkverbindung 15 2.4.4 Ökologische Auswirkungen 16 2.5 Nicht ausgelastete Ressourcen 18 3. Cudos Lösung 21 3.1 Schicht 2: CUDOS-Netzwerk 21 3.1.1 Wie es funktioniert 22 3.1.2 CUDOS Validator Nodes (CVNs) 23 3.1.2.1 AMD SEV Extra Security Layer 23 3.1.2.2 Delegierte Absteckung 23 3.1.4 CUDOS Governance 24 3.1.5 Entwicklerreise 24 3.2 Schicht 3: Cudos Rechenplattform 25 3.2.2 Angebotsseite 26 3.2.3 Nachfrageseite 27 3.2.4 Entwicklerseite 27 3.2.5 Zuweisung von Arbeitsplätzen 27 3.2.6 Preisgestaltung 27 3.2.7 Datenschutz 28 3.2.8 Abstecken 28 3.2.9 Ruf 28 3.2.10 Voraussichtliche Lieferanteneinnahmen 29 3.2.11 Voraussichtliche Einsparungen für die Verbraucher 30 3.3 Zielmarkt 30 3.3.1 Intelligente Vertragsblockketten 31 3.3.2 Cloud-Angebotsseite 31 3.3.3 Cloud-Nachfrageseite 34 4. CUDOS-Token 36 4.1 Token-Dienstprogramm 36 4.2 CUDOS-Netzwerk 36 2 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Inhalt 4.3 Abstecken in die Cudo-Plattform 37 4.4 Wertschöpfung und Erfassung 41 4.5 Token Verkauf 42 4.6 Token-Verteilung 42 4.7 Token-Zeitpläne 43 4.8 Verwendung der Mittel 43 4.9 Sicherheit 43 5. Anwendungsfälle 44 5.1 Blockchain Compute 44 5.2 Rendern 44 5.3 KI / Maschinelles Lernen 44 5.4 Simulationen 44 6. Geschäftsentwicklung 45 6.1 Aktuelle Cudo-Plattform 45 6.1.1 Cudos Ökosystem 46 7. Marktfläche 51 7.1 Zusammenfassung 51 7.2 Layer 2 / Oracle-Projekte 52 7.3 Andere Blockchain-Projekte 53 7.4 Zentrales Cloud Computing 54 8. Roadmap 55 9.-Mannschaft 57 9.1 Kernteam 57 9.2 Berater 61 9.3 Partner 64 10. Schlusserklärung 66 11. Glossar 67 12. Endnoten 68 3 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
1. Zusammenfassung Cudo ist ein skalierbares Computernetzwerk für Blockchains und Verbraucher von Cloud-Diensten. Es verbindet Blockchain-Entwickler und Käufer von Cloud-Diensten (Verbraucher) mit Verkäufern (Lieferanten), die ihre nicht genutzten Computerressourcen monetarisieren können. Die Installation der Cudo-Plattform dauert nur wenige Klicks. Danach generiert die Software sofort Einnahmen. Cudo generiert automatisch und kontinuierlich passives Einkommen aus der Hardware eines jeden, nutzt freie Rechenleistung und bietet sofortigen ROI. Blockchain-Entwickler haben Zugriff auf Computerorakel, und Unternehmen können bei Bedarf Berechnungen durchführen, die billiger und flexibler sind als die von führenden Cloud-Anbietern angebotenen. Dies schafft einen wettbewerbsfähigen Marktplatz für Computer, der Verbrauchern und Anbietern Vorteile bietet. Die Blockchain-Technologie hat das letzte Jahrzehnt gestört und sich von ihren Kinderschuhen zu dem Milliarden-Dollar-Ökosystem entwickelt, das es jetzt ist. Es ist eine sehr schnelllebige Umgebung, in der ständig neue Ideen und Funktionen erstellt und umgesetzt werden. Einige dieser Innovationen, wie z. B. DeFi, wurden durch die aktuellen Einschränkungen der Technologie zurückgehalten, sodass ihnen der nächste Schritt in Bezug auf die Rechenleistung fehlt. Darüber hinaus war Cloud Computing eine der bestimmenden Technologien des 21. Jahrhunderts. Durch das Auslagern von Computer und Speicher müssen Benutzer nicht mehr die Ressourcen kaufen und speichern, die sie für die Durchführung ihrer Vorgänge benötigen. Sie können einfach die erforderlichen Ressourcen leasen und freigeben, was die Geschwindigkeit, Effizienz und Produktivität in einer Reihe von Branchen und Branchen erheblich gesteigert hat. Die Nachfrage nach Cloud Computing wächst jetzt exponentiell. Die dominierenden Cloud-Anbieter geben zig Milliarden Dollar für die Infrastruktur aus, um Schritt zu halten. Die neuen Richtlinien für die Heimarbeit, die aufgrund von Coronavirus implementiert wurden, tragen auch zur Massenakzeptanz der verschiedenen Cloud-Angebote bei. Der phänomenale Fortschritt im Cloud Computing war nicht ohne Herausforderungen. Die Zentralisierung von Cloud-Servern hat zu Bedenken hinsichtlich des Datenschutzes geführt1, während Untersuchungen die Umweltauswirkungen von Hyperscale-Rechenzentren hervorgehoben haben. Aufgrund der physikalischen Grenzen bei der Herstellung von Mikrochips nimmt die Effizienz des Cloud-Computing im Vergleich zu Geräten im Besitz von Verbrauchern ab. Die Latenzen, die beim Übertragen von Daten zur und von der Quelle auftreten, sind unpraktisch, um die Anforderungen einer hyperverbundenen Welt zu erfüllen. Wie George Gilder feststellt, „erreicht Cloud Computing, das für seine Zeit ein großer Triumph war und seine Zeit dominierte, jetzt das Ende der Reihe.“ 3 Die Verbrauchertechnologie, zu der 2 Milliarden PCs und 2,7 Milliarden Smartphones gehören, verbringt die meiste Zeit im Leerlauf. Die Verarbeitungsfunktionen dieser leistungsstarken Geräte bieten eine enorme Einnahmequelle. Das Freischalten des in diesen Assets gespeicherten Werts kann den Eigentümern ein passives Einkommen bieten und gleichzeitig eine erschwingliche On-Demand-Berechnung für Unternehmenskunden ermöglichen. Der Verkauf von Ersatzcomputern ist die natürliche Entwicklung der Sharing Economy, die mit dem Weiterverkauf unerwünschter Waren und der unzureichenden Nutzung von Immobilien und Automobilkapazitäten begann. In der Web 3.0-Ära treten wir ein, Daten sind die Hauptwährung, und Ressourcen werden gepoolt, wodurch offene Cloud-Netzwerke entstehen, in denen der Zugriff sicher ist und jeder Ressourcen bereitstellen kann. Cudo wird an der Spitze dieser Bewegung stehen und den Übergang zu Nebel- und Grid-Computing erleichtern, bei dem Ressourcen an den Rand der Cloud verlagert werden, wodurch zusätzliche Nachfrage nach verteiltem Computing entsteht und die Grenzen der Rechenfähigkeiten von Blockchain weiter erweitert werden. Bisher wurden dezentrale Computerplattformen durch Komplexität, einen eng adressierbaren Markt und schlechte UX behindert. Eine steile Lernkurve hat ihre Verwendung auf technisch versierte Personen beschränkt und den Großteil der im Leerlauf befindlichen Rechenleistung der Welt ungenutzt gelassen. Die Computerplattform von Cudo wurde unter Berücksichtigung der Benutzererfahrung entwickelt und erfordert keine Codierung oder komplexe Installation. Sie kann innerhalb von Minuten voll funktionsfähig sein. 4 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Das Team hinter Cudo Ventures unter der Leitung von CEO Matt Hawkins verfügt über mehr als 16 Jahre Erfahrung im Bereich Cloud Computing. Es hat C4L aufgebaut, einen Cloud-Dienstanbieter, der 1% der britischen Internetinfrastruktur mit zig Millionen täglichen Benutzern in seiner Infrastruktur unterstützt Europa und die USA. Infolgedessen hat das Team ein umfangreiches Netzwerk von Branchenkontakten konsolidiert, darunter mehrere Unternehmen und Dienstleister, die frühzeitig zu Cudo-Computing- Verbrauchern werden. Das Cudo-Team nahm den Betrieb ohne Finanzierung auf und deckte alle Einrichtungskosten durch den Verkauf von C4L ab. Jetzt, über drei Jahre später, hat Cudo Ventures eine professionelle und benutzerfreundliche Plattform eingeführt, mit der Hardwarebesitzer rund um die Uhr und sieben Tage die Woche passiv Einnahmen erzielen können. Plattformbenutzer verdienen bereits über 600.000 US-Dollar monatlich. Bis heute hat Cudo ein Netzwerk von über 150.000 angemeldeten Benutzern aus über 145 Ländern mit mehr als 20.000 gleichzeitigen Geräten aufgebaut, die zu frühen Cudo-Computeranbietern werden. Das letzte Puzzleteil, um die Ausrichtung der Anreize und die Akzeptanz durch die Benutzer sicherzustellen, ist ein gut gestaltetes Token-Modell, das mit einigen der führenden Token-Ökonomen der Branche, Michal Bacia, AmaZix und Outlier Ventures, erstellt wurde. Infolgedessen wird Cudo Compute mit einem klaren Token-Modell gestartet, das Asset-Lieferanten dazu anregt, langfristige Netzwerkteilnehmer zu werden. Durch eine Veranstaltung zur Token-Generierung möchte Cudo Ventures 3 Mio. USD sammeln, um die Cudo-Computerplattform zu vervollständigen, den Betrieb zu erweitern und eine verteilte Token-Inhaber- Community zu bilden, die aufgefordert wird, ihre Computerressourcen zu teilen und entsprechend belohnt zu werden. Dank seiner umfassenden Kenntnisse des Cloud-Computing-Marktes und seiner etablierten Plattform versteht Cudo Ventures die Bedürfnisse von Verbrauchern und Lieferanten. In Cudo Compute wird ein Netzwerk erstellt, das die Vermietung von Rechenleistung so einfach macht wie die Bestellung eines Uber. 5 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
1.1 Erklärung zur Verantwortung der Direktoren Die Direktoren von Cudos Limited haben dieses Weißbuch herausgegeben und alle zumutbaren Anstrengungen unternommen, um sicherzustellen, dass die in diesem Dokument angegebenen Tatsachen in allen wesentlichen Punkten wahr und richtig sind und dass es keine anderen Tatsachen gibt, deren Auslassung eine Aussage irreführend machen würde in dem Dokument, ob von Tatsachen oder von Meinung. Der Verwaltungsrat übernimmt die entsprechende Verantwortung. 6 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
1.2 Zusammenfassung der rechtlichen Überlegungen, Risiken und Haftungsausschlüsse WICHTIGER HINWEIS: Bitte lesen Sie den gesamten Abschnitt „Zusammenfassung der rechtlichen Überlegungen, Risiken und Haftungsausschlüsse“ sorgfältig durch. Wir empfehlen Ihnen, sich vor der Teilnahme an dem in diesem Whitepaper beschriebenen Cudos Token Generation Event an einen Rechts-, Finanz-, Steuer- oder anderen professionellen Berater oder Experten zu wenden. Es wird dringend empfohlen, sich in Bezug auf die Rechtmäßigkeit Ihrer Teilnahme am Token Generation Event von einem unabhängigen Rechtsberater beraten zu lassen. Sie sollten beachten, dass Sie in den Token- Verkaufsbedingungen, die Sie im Rahmen des Prozesses zur Teilnahme am Cudos Token Generation Event anerkennen und akzeptieren, versichern, dass Sie tatsächlich unabhängige Rechtsberatung in Anspruch genommen haben. Bitte beachten Sie, dass dies eine Zusammenfassung des Dokuments „CUDOS Token Terms“ ist, das Sie hier finden und das Sie vollständig lesen müssen, bevor Sie (i) dieses White Paper und alle Informationen zu Cudos Limited (dem „Unternehmen“) verwenden “Oder” Cudos “) Website unter www.cudos.org (die” Website “) und / oder (ii) Teilnahme an der in diesem Weißbuch beschriebenen Token-Generierungsveranstaltung des Unternehmens (die” Token-Generierungsveranstaltung “). Alle unten nicht definierten Begriffe mit Großbuchstaben haben die im Papier „Rechtliche Überlegungen, Risiken und Haftungsausschluss“ angegebene Bedeutung. Diese Zusammenfassung sollte nicht als Grundlage für das vollständige Lesen des Dokuments „Rechtliche Überlegungen, Risiken und Haftungsausschlüsse“ herangezogen werden. Die Informationen in diesem Weißbuch und alle auf der Website verfügbaren Informationen werden im Folgenden als „verfügbare Informationen“ bezeichnet. Für die verfügbaren Informationen gilt das Dokument „CUDOS Token Terms“, dessen Vollversion oben erwähnt wurde. Der Inhalt des Dokuments „CUDOS-Token-Nutzungsbedingungen“ enthält die für Sie geltenden Allgemeinen Geschäftsbedingungen im Zusammenhang mit (i) Ihrer Verwendung sämtlicher verfügbarer Informationen; und / oder (ii) Ihre Teilnahme am Token-Generierungsereignis, jeweils zusätzlich zu anderen Bedingungen, die wir von Zeit zu Zeit im Zusammenhang mit dem Token-Generierungsereignis veröffentlichen (diese Bedingungen werden im Folgenden als „Bedingungen“ bezeichnet). ). In diesem Weißbuch werden die aktuellen Ansichten des Unternehmens zur Cudos Compute Platform und verwandten Themen dargelegt. Das Unternehmen kann dieses Weißbuch von Zeit zu Zeit ohne vorherige Ankündigung in jeder Hinsicht überarbeiten. Die in diesem Weißbuch eingegebenen Informationen sind nur Richtwerte und für das Unternehmen oder eine andere Partei nicht rechtsverbindlich. Dieses Dokument dient nur zu Informationszwecken und stellt kein Verkaufsangebot, keine Aufforderung zur Abgabe eines Kaufangebots oder eine Empfehlung von (i) dem Unternehmen, (ii) eine Investition in die Cudos Compute Platform dar und ist nicht als solches gedacht oder ein Projekt oder Eigentum des Unternehmens oder (iii) Aktien oder andere Wertpapiere des Unternehmens oder eines verbundenen oder verbundenen Unternehmens in einer Gerichtsbarkeit. Die Informationen im Dokument „CUDOS Token Terms“ sind möglicherweise nicht vollständig und implizieren keine Elemente eines Vertragsverhältnisses. Obwohl wir alle zumutbaren Anstrengungen unternehmen, um sicherzustellen, dass alle verfügbaren Informationen korrekt und aktuell sind, stellt dieses Material in keiner Weise eine professionelle Beratung dar. Personen, die beabsichtigen, am Token Generation Event teilzunehmen, sollten unabhängigen professionellen Rat einholen, bevor sie auf die verfügbaren Informationen reagieren. Das Unternehmen empfiehlt nicht, Tokens für spekulative Anlagezwecke zu kaufen. Tokens berechtigen Sie nicht zu Eigenkapital, Governance, Stimmrecht oder ähnlichen Rechten oder Ansprüchen im Unternehmen oder in einem seiner verbundenen Unternehmen. Token werden als digitale Assets verkauft, ähnlich wie herunterladbare Software, digitale Musik und dergleichen. Das Unternehmen empfiehlt den Kauf von Tokens nur, wenn Sie bereits Erfahrung mit kryptografischen Token, Blockchain-basierter Software und verteilter Ledger-Technologie haben und wenn Sie unabhängige professionelle Beratung in Anspruch genommen haben. 7 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Bürger, Staatsangehörige, Einwohner (steuerlich oder anderweitig), Inhaber einer Green Card und / oder eingeschränkte Personen einer eingeschränkten Gerichtsbarkeit dürfen die verfügbaren Informationen nicht verarbeiten und dürfen nicht am Token-Generierungsereignis oder am Kauf von Token oder ähnlichen Aktivitäten teilnehmen . In keinem Fall haften die Gesellschaft oder aktuelle oder frühere Unternehmensvertreter für die ausgeschlossenen Haftungsangelegenheiten. Das Unternehmen gibt keine Zusicherungen, Garantien oder Zusagen in irgendeiner Form gegenüber einem Unternehmen oder einer Person ab oder lehnt dies ab und lehnt dies hiermit ab, einschließlich Zusicherungen, Gewährleistungen oder Zusagen in Bezug auf die Wahrheit, Richtigkeit und Vollständigkeit von Informationen in den verfügbaren Informationen. Sie sollten jeden der Risikofaktoren und alle anderen in den Nutzungsbedingungen enthaltenen Informationen sorgfältig prüfen und bewerten, bevor Sie sich für die Teilnahme am Token Generation Event entscheiden. Dieses Weißbuch kann in verschiedene Sprachen übersetzt werden. Im Falle eines Konflikts zwischen Dokumenten hat jedoch die englische Version des Weißbuchs Vorrang. 8 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
2. Marktübersicht 2.1 Cloud Computing heute Cloud-Anbieter, die über Hardware wie Server und Rechenzentren verfügen, vermieten ihre Rechenkapazität an Cloud-Kunden. Obwohl Cloud Computing als neueres Phänomen angesehen wird, lässt es sich bis in die 1960er Jahre zurückverfolgen, als das Konzept eines „intergalaktischen Computernetzwerks“ 4 vorgeschlagen wurde. Die erste Manifestation davon war ARPAnet, ein Vorläufer des Internets, das eine Reihe von Vorteilen gegenüber den sperrigen Großrechnern bot, die in den 1950er Jahren auf den Markt kamen. Als der technologische Fortschritt Computer schrumpfte, die ursprünglich die Größe eines kleinen Hauses hatten, begann sich ein verteiltes Netzwerk zu bilden, mit dem ursprünglichen Ziel, wissenschaftliche Forschung und militärische Kommunikation zu erleichtern. Ein Client-Server-Computermodell nahm Gestalt an und blieb bis in die 1990er Jahre bestehen, als das Internet, wie wir es kennen, entstand. Die Anzahl der vernetzten Geräte nahm zu, was durch geringere Hardwarekosten und eine drastisch erhöhte Verarbeitungsleistung und Datengeschwindigkeit unterstützt wurde. In den späten 90er Jahren brachte Salesforce die ersten SaaS-Anwendungen (Software as a Service) auf den Markt, und das moderne Cloud- Computing-Zeitalter war angebrochen. Es würde jedoch einige Jahre dauern, bis „die Cloud“ allgemein verwendet wurde. Zu Beginn des 21. Jahrhunderts forderte der Verbraucher immer tragbarere und dennoch leistungsstärkere Geräte, deren Design das Auslagern von Berechnungen in die Cloud erforderte. Mobile Computing explodierte, Unternehmenssoftware migrierte schnell in die Cloud und Rechenzentren wurden vervielfacht und erweitert. Softwareunternehmen wie Amazon, Google und Microsoft führten Endbenutzer mit einer Reihe leistungsstarker Anwendungen in das Cloud-Computing ein, und es bildeten sich dedizierte Cloud- Branchen, darunter Platform as a Service (PaaS) und Infrastructure as a Service (IaaS). Letzteres ist jetzt eine Branche mit 39 Mrd. USD 5, während der weltweite Markt für öffentliche Cloud-Dienste von 182 Mrd. USD im Jahr 2018 auf 331 Mrd. USD im Jahr 2022,6 wachsen wird Im Jahr 2018 stieg die Anzahl der großen Rechenzentren, die von Hyperscale-Anbietern betrieben werden - hauptsächlich Amazon, Microsoft, Google und IBM - um 11% .7 2017 gaben die 24 größten Anbieter 75 Mrd. USD für Rechenzentren und Serverfarmen aus.8 Google investierte 13 USD B im Bereich Cloud Computing bis 2019, einschließlich Tausender neuer Mitarbeiter, neun neuer Büros und sechs Rechenzentren in 14 Bundesstaaten.9 2020 und die COVID-19-Pandemie haben die Masseneinführung von Cloud Computing beschleunigt, was wohl zu einem Grundbedürfnis vieler geworden ist Unternehmen.10 Heimarbeit begann als Notwendigkeit während der Pandemie, aber viele Sektoren werden sie wahrscheinlich später als praktikable Alternative beibehalten.11 Die Geschichte des Consumer-Computing kann als Wettlauf um immer kompaktere und leistungsfähigere Geräte angesehen werden. Diese Makroerzählung hat sich in den letzten 70 Jahren abgespielt, als die Branche zwischen Perioden der rechnerischen Zentralisierung und Dezentralisierung pendelte. Das derzeitige Hub- and-Spoke-System, in dem zentralisierte Rechenzentren einen Großteil der Speicherung und Verarbeitung im Internet übernehmen, besteht seit fast zwei Jahrzehnten. Die Geschichte deutet darauf hin, dass das Pendel erneut zu einem verteilten Modell schwingen wird, das die Anforderungen vernetzter Geräte der nächsten Generation erfüllt. Heutzutage werden große Mengen an Kapazitätsreserven für eine Reihe von Consumer-Hardware nicht ausreichend genutzt, während teure und energieintensive Rechenzentren Geräte bedienen, die längere Zeit nicht genutzt werden. Diese Situation ist äußerst ineffizient. Das kombinierte Rechenpotenzial dieser nicht ausgelasteten Consumer-Geräte entspricht Hunderten von großen Rechenzentren und könnte bei ordnungsgemäßer Mobilisierung einen großen Teil des weltweiten Rechenbedarfs decken. Aufgrund der derzeitigen mangelnden Fähigkeit, diese Kapazitätsreserven zu füllen, bleibt ein Großteil davon im Leerlauf. 9 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
2.2 Cloud Computing morgen Die Reifung des Cloud Computing in Verbindung mit der Entwicklung vernetzter Geräte hat zu einer Reihe neuer Cloud-basierter Modelle geführt. Obwohl es derzeit eine Nische gibt, wie es die zentralisierte Cloud vor 20 Jahren war, gibt es überzeugende Beweise dafür, dass diese neuen Cloud-basierten Systeme in der Zukunft des Computing eine entscheidende Rolle spielen werden. Edge-Computing-Funktionen verarbeiten Daten in unmittelbarer Nähe zu ihrem Ursprung über Mikrodatenzentren, anstatt sie zwischen der Datenquelle und dem Cloud-Rechenzentrum hin und her zu senden, um die Effizienz zu steigern. Fog Computing ist im Wesentlichen der Mittelpunkt zwischen Cloud- und Edge-Computing, wobei Daten an mehreren Punkten im Netzwerk verarbeitet werden. Es wurde vorausgesagt, dass sich der Markt für Nebelcomputer bis 2022 vervierfachen und 18 Milliarden US-Dollar erreichen wird.12 Schließlich umfasst Grid Computing die gemeinsame Nutzung von Rechenleistung, Speicher und Datenspeicher mit jedem anderen Computer im Netzwerk, wodurch ein verteiltes System nicht interaktiver Workloads entsteht. In einem Grid-System senden Geräte in einem Netzwerk Aufgaben, die eine große Anzahl von Verarbeitungszyklen erfordern und große Datenmengen beinhalten, an eine zentrale Entität. Diese Entität unterteilt die Aufgaben in Fragmente und verteilt sie auf eine Reihe verbundener Computerhardware. Jedes dieser Geräte löst das zugewiesene Fragment und gibt die abgeschlossene Aufgabe an die zentrale Entität zurück, die die Fragmente zu einem vollständigen, abgeschlossenen Job zusammensetzt und an das Ursprungsgerät zurückgibt. Dieses System ist sicher, da kein Gerät im Netzwerk außer der zentralen Entität Zugriff auf die gesamte Aufgabe oder das Ergebnis hat. Es ist auch schnell, da mehrere Geräte parallel arbeiten, um Segmente des Auftrags abzuschließen, und effizient, da es Kapazitätsreserven von ansonsten inaktiven Geräten nutzen kann, die an das Netzwerk angeschlossen sind. Da die von IoT-Geräten gesammelten Daten häufig unstrukturiert sind, sind maschinelle Lerntechniken in Edge-Systemen erforderlich, um Entscheidungen in Echtzeit zu treffen. Daher ist eine geringe Latenz unerlässlich. Die wachsende Leistung von IoT-Sensoren, die das Wachstum der mobilen Verarbeitungsleistung widerspiegelt, wird enorme Datenmengen erzeugen und den Bedarf an Edge- Computing erhöhen. Mit Edge Computing können Anwendungen wie Fahrzeuge in geografischer Nähe in Echtzeit miteinander kommunizieren und so effektiv verteilte P2P-Netzwerke erstellen, die Daten schnell verarbeiten und übertragen können. Der Aufstieg von Drohnen, selbstfahrenden Autos, Robotern und IoT-Geräten, die auf eine Verarbeitung mit geringer Latenz angewiesen sind, wird den Rechenaufwand an die Spitze treiben. Bis 2025 werden mehr als 75 Milliarden IoT-Geräte angeschlossen sein, die Berechnungen in Echtzeit senden und empfangen müssen.13 Wenn Milliarden von Geräten an den Rand des Netzwerks angeschlossen werden, wird die Rechenleistung gezwungen sein, zu folgen, was zu einer Ära der Verteilung führt Computing. Diese Verschiebung wurde von Peter Levine von a16z als „eine der größten Veränderungen in der Computerlandschaft“ beschrieben.14 10 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Während Grid- und Fog-Computing ein miteinander verbundenes Netzwerk von Geräten bilden, haben diese Lösungen eines gemeinsam mit dem aktuellen Cloud-Computing: das Vertrauen in eine einzige Einheit, die sie alle kontrolliert, oder mit anderen Worten die Zentralisierung. Im Jahr 2008 wurde eine neue Technologie namens Blockchain eingeführt, mit der eine Währung eingeführt wurde, die keiner einzelnen Einheit vertrauen musste: Bitcoin.15 Wolke Nebel CLOUD-RECHENZENTRUM: TAUSENDE NEBELKNOTEN: MILLIONEN Gitter ABGESCHLOSSEN AUFGABE AUFGABE MANAGEMENT ENTITY EDGE-GERÄTE: MILLIARDEN AUFGABE AUFGABE FRAGMENT NR. 1 FRAGMENT NR. 4 AUFGABE AUFGABE FRAGMENT NR. 2 FRAGMENT NR. 3 11 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
2.3 Neues Computerparadigma: Blockchain Im Jahr 2008 schlug Satoshi Nakamoto, dessen Identität noch nicht bekannt ist, 16 die erste Implementierung einer dezentralen, vertrauenswürdigen digitalen Währung vor, die das Problem der doppelten Ausgaben löste: Bitcoin. Bitcoin verwendet die sogenannte Blockchain, ein verteiltes und dezentrales öffentliches Hauptbuch. Einfach ausgedrückt besteht die Blockchain von Bitcoin aus Knoten, und jeder Knoten verfügt über eine Kopie des Hauptbuchs. Neue Transaktionen im Netzwerk werden in Blöcke gruppiert, und die Eindeutigkeit von Transaktionen und Blöcken wird durch Kryptografiealgorithmen garantiert. Genauer gesagt verwenden Bitcoin (und die meisten anderen Kryptowährungen) den sogenannten Proof of Work (PoW): Jeder neue Block verfügt über einen eindeutigen Hash, der ihn mit der Kette verbindet, und alle Knoten versuchen ständig, diesen Hash zu berechnen. Der Gewinner wird in Bitcoin belohnt, sendet den Block an das Netzwerk und beginnt, den Hash für den nächsten Block (sogenanntes Mining) zu finden .17 Das Steuern der meisten neu abgebauten Blöcke würde das Steuern des Netzwerks und das Ändern von Daten bedeuten. Dies ist als 51% -Angriff bekannt und kann für kleine Kryptowährungen ein Problem darstellen. Für größere Netzwerke, wie dies seit Jahren bei Bitcoin und vielen anderen der Fall ist, ist dieser Angriff jedoch nicht durchführbar, da die für die erfolgreiche Durchführung eines solchen Angriffs erforderliche Rechenleistung enorm sein müsste.18 Während das Bitcoin-Netzwerk für den Handel mit der nativen Kryptowährung verwendet wird, bauen Entwickler auf der ganzen Welt bald auf der Blockchain-Technologie auf, um ihren Funktionsumfang zu erweitern. Am auffälligsten ist, dass Vitalik Buterin die heute zweitgrößte Kryptowährung vorgeschlagen hat: Ethereum. Ethereum implementiert intelligente Verträge, die auf der virtuellen Maschine von Ethereum ausgeführt werden. Die größte Revolution bei diesen intelligenten Verträgen besteht darin, dass sie in einer Turing-vollständigen Sprache verfasst sind. Vollständigkeit bedeutet, dass die intelligenten Verträge von Ethereum im Gegensatz zu Bitcoin, das hauptsächlich zur Abwicklung von Kryptowährung verwendet wird, jede Art von Algorithmus ausführen können. Dies eröffnete eine neue Landschaft für Blockchains, da Entwickler die Möglichkeit hatten, jede Art von Workload in der Kette auszuführen. Diese neue Funktionalität ist jedoch begrenzt: Die Preise für interne Transaktionen von Ethereum werden mit Gas 19 berechnet, wodurch die Anzahl der Transaktionen und Berechnungen begrenzt wird, die in der Kette ausgeführt werden können. Außerdem begrenzt PoW die Anzahl der Transaktionen, die eine Blockchain pro Sekunde ausführen kann, erheblich und ist ein sehr ineffizientes System. Beispielsweise wurde berichtet, dass Bitcoin im Juli 2019 mehr Strom verbraucht als die Schweiz.20 Ein weiterer Ausdruck dieses Gasproblems ist sehr deutlich zu erkennen, wenn man die Rechen-, Bandbreiten- und Speicherkosten auf diesen Plattformen betrachtet.21 Ab Oktober 2020 wird 1 GB Speicher in Ethereum in Zehntausenden von Millionen Dollar und in EOS gezählt in Hunderttausenden von Dollar. Andererseits kostet dieselbe Speichergröße in Amazon Web Services (AWS) nur Cent, und die Anzahl der unterstützten Transaktionen pro Sekunde ist um viele Größenordnungen höher. 12 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Obwohl oder vielleicht dank dieser Skalierbarkeitsprobleme Bitcoin und Blockchain das Ökosystem von Entwicklern und Forschern revolutionierten, indem sie einen sehr interessanten Forschungsbereich22 einführten, an dem gearbeitet und entwickelt werden konnte. Blockchain wurde jedoch schnell viel mehr als das. Der Marktpreis eines Bitcoin lag zu Beginn des Jahres 2016 bei rund 400 US-Dollar, zu Beginn des Jahres 2017 bei fast 1.000 US-Dollar, stieg dann aber bis Ende des Jahres auf fast 20.000 US-Dollar. Selbst wenn es danach schnell sank, ist der Preis für ein Bitcoin zu keinem Zeitpunkt danach selten unter 6.000 USD gefallen und schwankte in den letzten Monaten um 10.000 USD.23 Daher sind Bitcoin, Ethereum und alle anderen Ökosysteme von Kryptowährungen (allgemein als Altcoins bezeichnet) ebenfalls zu Anlagevermögen geworden und begrüßen ein viel breiteres Publikum in der Welt der Kryptowährungen. Dank der Möglichkeit, Token einfach auf intelligenten Vertragsplattformen wie Ethereum zu starten, hatten viele Entwicklungsprojekte die Möglichkeit, das Feld von innen heraus zu erforschen und voranzutreiben und Unterstützung durch ihre Währungen und Token innerhalb der Krypto-Community zu erhalten. Während einige Projekte es in die Mainstream-Medien schafften, aber nicht viel Wert brachten, obwohl sie zugrunde liegende Probleme anzeigten, haben 24 andere wie crypto.com, EOS oder Tezos Kryptowährungen einem immer breiteren Publikum vorgestellt und Dienstleistungen in vielen verschiedenen Bereichen angeboten. Darüber hinaus hat sich das gesamte Ökosystem sehr schnell in viele Richtungen entwickelt. In jüngster Zeit ist die dezentrale Finanzierung (DeFi) 25 ein sehr heißes Thema geworden, das von knapp 700 Mio. USD im Januar 2020 auf über 11 Mrd. USD Ende September gestiegen ist.26 Die oben genannten Probleme beeinträchtigen jedoch immer noch die Funktionalität. Um die durch PoW eingeführten Probleme zu überwinden, haben viele Projekte begonnen, nach Alternativen zu suchen. Proof of Stake (PoS) ist einer der Hauptkandidaten, der bereits von Projekten wie Cosmos oder Polkadot implementiert wurde und in Ethereum für die Version 2.0 mithilfe von Sharding geplant ist. Die Hauptidee hinter PoS ist, dass Knoten Blöcke anhand der Anzahl der gesetzten Token validieren, anstatt miteinander zu konkurrieren, um das PoW-Rennen zu gewinnen. In einer anderen Richtung verfügen Projekte wie Algorand über ein verbessertes byzantinisches Vertragssystem, das den Transaktionsdurchsatz erheblich verbessert, jedoch auf Kosten von Turing- vollständigen Smart-Verträgen. Was viele dieser neuen Projekte gemeinsam haben (oder fehlen), ist die sogenannte Schicht 2: ein separates Netzwerk von Knoten, die Code ausführen und Transaktionen außerhalb der Kette validieren können. 27 In ähnlicher Weise haben jüngste Projekte versucht, Blockchains über Orakel mit der Außenwelt zu verbinden. Beispiele hierfür sind Chainlink, ein sehr interessantes Projekt, das Datenfeeds für Währungswerte bereitstellt. Die wichtigste Neuerung, die Chainlink bietet, besteht darin, dass diese Datenfeeds so dezentral sind, wie es der Anforderer wünscht: Der intelligente Vertrag, der den Job anfordert, kann auswählen, wie viele Chainlink-Knoten verwendet werden sollen, um den Währungswert zu erhalten. Die Gaskosten sind jedoch immer noch sehr hoch, so dass es keine endgültige Lösung für das Skalierbarkeitsproblem gibt. 13 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
2.4 Warum jetzt? Auf der Blockchain-Seite besteht ein klarer Bedarf an einer Skalierbarkeitslösung, die über verschiedene Blockchains hinweg implementiert werden kann und die es Blockchain-Entwicklern ermöglicht, das Feld weiter voranzutreiben. Auf der zentralisierten Cloud-Seite drohen Probleme sowohl auf der Angebots- als auch auf der Nachfrageseite das Wachstum der Cloud-Computing-Branche zu bremsen und Unternehmen zu effizienteren und flexibleren Lösungen zu bewegen. Auf der Nachfrageseite verschwenden Unternehmen durchschnittlich 35% ihrer Cloud-Ausgaben durch ineffektives Management und Optimierung.28 Dies führt zu höheren Ausgaben als bei Anbietern wie AWS erforderlich und kostet Unternehmen jährlich 62 Mrd. USD.29 Die Schwere der Herausforderungen für die Branche ist so groß, dass zahlreiche Experten vorausgesagt haben, dass eine radikale Umstellung des Cloud-Geschäftsmodells unvermeidlich ist. Angesichts des jüngsten und blitzschnellen Wachstums der Blockchain-Industrie ist eine Verbindung zwischen beiden Welten nicht nur notwendig, sondern auch unvermeidlich. 2.4.1 Blockchain-Anwendungen: DeFi Während sich die größte Blockchain für intelligente Verträge, Ethereum, auf Ethereum 2.0 zubewegt, um die Skalierbarkeitsprobleme zu lösen, geschieht dies nur langsam, und die Crypto-Community bewegt sich schneller als sie. Dies zeigt sich sehr deutlich in Bezug auf die Transaktionskosten von Ethereum: Seit DeFi auf dem Markt gestiegen ist, sind die Transaktionskosten um eine Größenordnung gestiegen.30 Darüber hinaus sind DeFi-Anwendungen ebenso wie der Rest des Ökosystems in ihrem Umfang begrenzt, bis tragfähige Lösungen gefunden werden. Die Technologie befindet sich derzeit an einem Wendepunkt, nach dem sie sich noch schneller in Richtung Massenakzeptanz entwickeln wird. Es gibt viele Projekte, die Mittel und Zuschüsse für die Blockchain-Forschung anbieten 31, und das gesamte Krypto-Ökosystem ist seit Jahren stetig gewachsen, um diesen Punkt zu erreichen. Daher ist es der perfekte Zeitpunkt für professionelle Cloud-Unternehmen, innerhalb der Blockchain-Welt zusammenzuarbeiten und zu arbeiten. 2.4.2 Physikalische Grenzen Allgemeiner betrachtet sind viele der Herausforderungen, denen sich die Branche gegenübersieht, nicht nur in der Cloud zu finden, sondern betreffen den gesamten Technologiesektor. Die Dennard-Skalierung - das Prinzip, dass Transistoren mit kleinerer Leistung weniger Strom verbrauchen, wodurch die erzeugte Wärme reduziert und enger zusammengepackt werden kann - hat einen Bruchpunkt erreicht. Dies ist auf den geringen Leckstrom zurückzuführen, den Wärmetransistoren besitzen. Wenn die Anzahl der Transistoren für einen bestimmten Bereich zunimmt, dominiert der Leckstrom die Verstärkungen aufgrund der Dennard-Skalierung. Mit anderen Worten, der Stromverbrauch des Siliziums kann nicht mit der Skalierung der Prozessoren skaliert werden. Dies führt zu dem sogenannten “dunklen Silizium” 32, bei dem die Kerne in einem Multicore-Prozessor aufgrund von Leistungsbeschränkungen nicht alle gleichzeitig funktionieren können.33 14 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Obwohl die Produktionsgröße von Transistoren abnimmt, führt dies nicht mehr zu der äquivalenten Erhöhung der Rechenleistung, die früher verwendet wurde, da zu jedem Zeitpunkt nur ein Teil davon voll funktionsfähig sein kann, um eine Überhitzung zu verhindern. Infolgedessen haben sich die Verbesserungen der CPU-Taktraten seit 2005 verlangsamt34, und die Effizienzvorteile des Rechenzentrums haben im Vergleich zu anderen Formen der Computerinfrastruktur allmählich nachgelassen. Die Übernahme von Computern folgt einer herkömmlichen S-Kurve, wobei sich Cloud Computing nun der Asymptote dieser Kurve nähert und verlangsamt, während andere Branchen sich immer noch schnell beschleunigen. Die von Cloud-Anbietern betriebene Spezialhardware hat eine Obergrenze erreicht, bei der zusätzliche Kapazität nur durch den Bau neuer und größerer Rechenzentren erreicht werden kann, die ihre eigenen Probleme mit sich bringen. . Cloud Computing COMPUTERWACHSTUM ZÄHLEN Rand- / Fog-Computing ZEIT 2.4.3 Verbesserungen der Netzwerkverbindung Bis vor kurzem unterschieden schlechte Netzwerkverbindungen Haushalte und Unternehmen von Rechenzentren. Kommerzielle und inländische Verbindungen sind in Bezug auf Zuverlässigkeit und Geschwindigkeit historisch weit zurückgeblieben. Dies hat es Haushaltsgeräten aufgrund der unerträglich langsamen Latenz und des Ausfallrisikos aufgrund unterbrochener Verbindungen untersagt, Berechnungen durchzuführen. Die Verbindungslücke schließt sich jedoch schnell. Ab 2018 verfügen 94% der britischen Haushalte und Unternehmen über „superschnelles“ Breitband, 35 bis 6% haben Zugang zu Glasfaserverbindungen, 36 und 91% der britischen Landmasse haben Zugang zu einer guten 4G-Mobilfunkabdeckung von mindestens einem Betreiber.37 Die 47 am wenigsten entwickelten Länder der Welt (LDCs) verfügen jetzt alle über 3G-Internet, wobei durchschnittlich 60% ihrer Bevölkerung über ein 3G-Netz abgedeckt sind. Die Vereinten Nationen gehen davon aus, dass diese LDCs bis 2020 eine durchschnittliche Breitbandabdeckung von 97% erreichen werden.38 15 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Diese schnellen und weit verbreiteten Verbesserungen der Konnektivität haben tiefgreifende Auswirkungen auf die Zukunft der Berechnung. Wo Verbindungen zuvor unzuverlässig waren und die Download- Geschwindigkeit langsam war, haben Fortschritte in diesem Bereich zu einem großen Netzwerk von Benutzern mit schnellen und zuverlässigen Verbindungen geführt. Mit der schnellen Verbesserung der Netzwerkverbindungen ist es diesen Entitäten nun möglich geworden, anderen Benutzern Computer zur Verfügung zu stellen. 2.4.4 Ökologische Auswirkungen Der Kohlenstoffausstoß von Rechenzentren ist enorm. Cloud-Vorgänge verbrauchen Gigawatt Energie pro Jahr. Die 430 Hyperscale-Rechenzentren der Welt sollen durch weitere 132 ergänzt werden, die sich in der Entwicklung befinden, was zu einem entsprechenden Anstieg des Energieverbrauchs führt, um mit der Verbrauchernachfrage Schritt zu halten.39 Obwohl Hyperscale-Cloud-Rechenzentren in der Regel effizienter arbeiten als ihre unabhängig betriebenen Kollegen, 40 Das Cloud-Modell verursacht immer noch hohe Umweltkosten. Bis zu 50% 41 der für Cloud Computing benötigten Energie werden für Klimaanlagen und andere nicht rechnergestützte Leistungsanforderungen verwendet.42 Obwohl ein Teil der von Cloud-Anbietern verbrauchten Energie aus erneuerbaren Energien stammt, 43 stammt ein Großteil aus nicht erneuerbaren Energien Quellen.44, 45 Der CO2-Fußabdruck von Google wurde 2013 auf über 1,6 Mio. Tonnen CO2-Äquivalent geschätzt, von denen der größte Teil aus Rechenzentren stammte.46 Im Kontext stößt ein typisches Pkw etwa 4,6 Tonnen Kohlendioxid pro Jahr aus.47 Es Ein Auto würde über 380.000 Jahre gebraucht, um diesen CO2-Ausstoß zu erreichen. Alle Formen des Rechnens verbrauchen zwangsläufig große Mengen an Energie in großem Maßstab, aber das zentralisierte Cloud-Computing ist aufgrund seiner unflexiblen Architektur und Abgelegenheit besonders ineffizient. Darüber hinaus gehen die ökologischen Auswirkungen des zentralisierten Cloud-Computing über den bloßen Energieverbrauch hinaus.48 Ein Großteil der schädlichen Umwelteinflüsse tritt am Herstellungsort auf. Der Herstellungsprozess ist sehr kohlenstoffintensiv. Von der anfänglichen Gewinnung, Produktion und dem Transport von Rohstoffen über die Erstellung von Komponenten und Unterbaugruppen bis hin zur Endmontage ist der Prozess der Konstruktion eines Computergeräts mit einem konstanten Energieverbrauch verbunden. Neben der Erstellung von Hardware und variablen Kosten wie Strom ist der Bau von Rechenzentren mit einem enormen CO2-Verbrauch verbunden. Dies wird wiederum durch den enormen CO2-Fußabdruck in den Schatten gestellt, den Rechenzentren nach ihrer Inbetriebnahme haben. 16 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
1 MW RECHENZENTRUM Elektrizität Wasser Plastik Kupfer Aluminium 177 M KW-h 227M L 15K Kg 66K Kg 33K Kg Lot Stahl Führen 5K Kg 170K Kg 10K Kg Beton Mauerwerk Metalle Holz Chemikalien Glas Fliesen Wasser Plastik Isolierung Teer 17 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Es ist schwierig, die genauen CO2-Kosten für die Beschaffung und den Bau all dieser Komponenten zu berechnen, es kann jedoch eine Schätzung vorgenommen werden. Für die für den Bau einer 5.700 Quadratfuß großen Büroeinrichtung erforderlichen Materialien wurde ein CO2-Emissionsbeitrag berechnet, der 128,3 Tonnen CO2,49 entspricht. Der AFCOM-Bericht 2019 über den Stand der Rechenzentrumsbranche ergab, dass die durchschnittliche Größe aller Rechenzentrumsflächen beträgt zwischen 180.000 und 240.000 Quadratfuß.50 Unter der Annahme eines Durchschnitts von 210.000 Quadratfuß ist ein Rechenzentrum etwa 38-mal größer als die Bürofläche und hat daher einen CO2-Emissionsbeitrag, der ungefähr 4.875,4 Tonnen CO2 entspricht. Diese Zahl basiert ausschließlich auf dem eingebetteten CO2 in den Baumaterialien, die für den Bau der Gebäudehülle erforderlich sind, und berücksichtigt nicht die Kohlenstoffkosten für die Beschaffung, Gewinnung und den Transport dieser Materialien oder den Bauprozess. Es würde ungefähr 1.060 Jahre Autofahrten dauern, um diese CO2-Kosten zu erreichen. In jedem Rechenzentrum befindet sich eine Reihe von Betriebshardware, darunter CRAC-Einheiten (Computer Room Air Conditioning), Wärmeabgabegeräte wie Trockenkühler und luftgekühlte Kältemaschinen, Geräte zum Pumpen von gekühltem Wasser zwischen CRAC-Einheiten und Trockenkühlern sowie eine unterbrechungsfreie Stromversorgung (USV) ) Module, Generatoren, Speichereinheiten, elektrische Primärschaltgeräte, Server, SAN-Hardware (Storage Area Network), WAN-Hardware (Wide Area Network), LAN-Hardware (Local Area Network), PDUs (Power Distribution Units) und zu haltende Racks all diese Hardware sowie kilometerlange Verkabelung. 2.5 Nicht ausgelastete Ressourcen Es gibt ungefähr 2 Milliarden PCs, 51 2,7 Milliarden aktive Smartphones, 52 138 Millionen Playstation 4- und Xbox One-Spielekonsolen, 53 und 30 Milliarden IoT-Geräte, die einen gewissen Grad an Datenverarbeitung ausführen können.54 Schätzungen gehen von der Menge der Rechenzentrums-IT aus Hardware, die zu mehr als 50% nicht genutzt wird. 55, 56 Arbeitsplatzgeräte wie Bürocomputer werden noch weniger genutzt. In Großbritannien werden Bürocomputer durchschnittlich 6,5 Stunden pro Tag verwendet und fast 75% der Zeit nicht genutzt.57 Consumer-Hardware wie Laptops und Desktop-PCs wird im Durchschnitt noch weniger genutzt. Eine Studie ergab, dass die Hälfte aller Computer weniger als fünf Stunden pro Tag in Betrieb ist.58 Solche Geräte sind in 80% der Fälle nicht ausgelastet, sodass für den Eigentümer des Assets kein Wert entsteht. Gleiches gilt für Smartphones, die den ganzen Tag über zeitweise verwendet werden, deren Gesamtnutzungsgrad jedoch minimal ist. Während der Besitzer schläft, sind diese Geräte voll aufgeladen und stehen mit ihrem nicht realisierten Computerpotential im Leerlauf. Eine große Ineffizienz beim Enterprise Computing ist das Horten von Kapazitäten. KPMG erklärt: „Capacity Hoarding ist in erster Linie darauf zurückzuführen, dass Unternehmen ihren zukünftigen Kapazitätsbedarf nicht genau vorhersagen können, verbunden mit den normalerweise langen Vorlaufzeiten für die Bereitstellung neuer Infrastrukturen. Anstatt das Potenzial zu riskieren, bei Bedarf nicht über ausreichende Kapazität zu verfügen, wird überschüssige Kapazität zurückgehalten. “59 Diese überschüssige Rechenkapazität wird selten vollständig genutzt und stellt ein weiteres Segment von Computerressourcen dar, die weggesperrt und nicht ausreichend genutzt werden. 18 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Selbst Cloud-Plattformen nutzen einen erheblichen Teil ihrer Rechenkapazität nicht aus. Aktuelle Schätzungen zeigen, dass 35% der Cloud-Kapazität verschwendet werden, was teilweise auf die Notwendigkeit zurückzuführen ist, freie Kapazität für On-Demand-Workloads beizubehalten. Dieser Überschuss kann nicht an Vertragskunden weiterverkauft werden und muss für die Spitzen und Tiefpunkte der Nachfrage aufbewahrt werden. Dies bedeutet höhere als notwendige Kosten in Höhe von 62 Milliarden US-Dollar pro Jahr.60 Der Bau eines Rechenzentrums ist unglaublich kostspielig, energieintensiv und führt zu einem erheblichen CO2-Fußabdruck. Wenn das fertiggestellte Rechenzentrum nicht mit der maximalen Menge an Computerhardware gefüllt ist, um die maximal mögliche Menge an Berechnungen durchzuführen, wird es per Definition nicht ausreichend genutzt, sodass das Verhältnis von Baukosten zu Gewinn höher wird. Die Menge an Computerhardware in einem Rechenzentrum muss mit der maximalen Menge übereinstimmen, die von den verwendeten Sekundärsystemen wie USV-Systemen (Interruptible Power Supply) und Kühlsystemen unterstützt werden kann, um eine optimale Effizienz zu erzielen. Wenn die Menge der verwendeten Computerhardware unter das von den Sekundärsystemen unterstützte Maximum fällt, werden alle diese Sekundärsysteme weniger effizient, da sie nicht in vollem Umfang genutzt werden. Die in Heimcomputern, Smartphones, Servern und Spielekonsolen gesperrten Kapazitätsreserven sind derzeit aufgrund technischer Herausforderungen, Logistik und mangelnder wirtschaftlicher Anreize ungenutzt. Da diese Hardware bereits gekauft wurde, sind die einzigen zusätzlichen Ausgaben, die erforderlich sind, um mit Kapazität zu arbeiten, variable Kosten, nämlich die Stromkosten. Im Vergleich dazu entstehen durch zentrales Cloud-Computing laufende Investitionen wie Kosten für die Erneuerung der Hardware, Kühlsysteme, die für die Unterbringung der Hardware verwendeten Einrichtungen sowie Personal- und Verwaltungskosten. Daher können Kapazitätsreserven in persönlichen Geräten wesentlich effizienter und kostengünstiger bereitgestellt werden als Cloud-Computing auf Ad-hoc-Basis. Die Mobilisierung vorhandener Hardware und die Ausschöpfung des vollen Potenzials von Haushaltscomputern würde auch zur Reduzierung der CO2-Emissionen beitragen. Untersuchungen zeigen, dass verteiltes Computing 14 bis 25% weniger Energie verbraucht als vollständig zentralisierte Systeme, was teilweise darauf zurückzuführen ist, dass es nicht auf Rechenzentrumsnetzwerke und industrielle Kühlsysteme angewiesen ist. 61, 62 Zwar müssen Netzbetreiber die Kosten für ihren Energieverbrauch tragen, dies wird jedoch durch die für die Berechnung erzielten Belohnungen mehr als ausgeglichen. Die Gewinne variieren natürlich in Abhängigkeit von der verwendeten Hardware und den variablen Betriebskosten (z. B. Strom und Wartung). Es ist jedoch zu erwarten, dass Benutzer in jedem Szenario davon profitieren, wie in Abschnitt 3.2.10 beschrieben. Die Nutzung von Kapazitätsreserven wurde durch die Bemühungen von Unternehmen wie Airbnb, Uber und Lyft populär gemacht. Unternehmen und Endbenutzer sind mit dem Gedanken vertraut, Leerlaufkapazitäten wiederzuverwenden, um höhere Effizienz, Kosteneinsparungen und Monetarisierungsmöglichkeiten zu erzielen. Computing ist die nächste Branche, die auf diese Weise durch die Einführung eines Geschäftsmodells gestört wird, dessen Zeit gekommen ist. 19 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Extraktion von Transport von Herstellung Unterbaugruppen Produkt Finale rohes Material rohes Material von Herstellung Montage Komponenten 227 - 270 kg CO2 3010 - 4340 MJ Ein Standard-Laptop der Primärenergie Computer 150 - 300 KWh 44 - 88 kg CO2 pro Jahr pro Jahr Standard-Laptop für 8 Stunden pro Tag 20 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
3. Cudos Lösung Cudo bietet skalierbare Computerlösungen und hat zwei sehr klare Möglichkeiten identifiziert: Bereitstellung sicherer Layer-2-Computing-Funktionen für Blockchains und Verbesserung der Angebote für Cloud-Dienste. Das Zusammenfügen der Punkte Cudo hat sich jedoch einen weiteren Schritt vorgestellt: die Verbindung der beiden Punkte, indem erstmals eine neuartige Schicht 3 mit Blockchain-Netzwerken bereitgestellt wird, damit sie alle Arten von Rechenaufträgen ausführen können, indem die Cloud-Lösung nahtlos in die integriert wird Blockchain eins. 3.1 Schicht 2: CUDOS-Netzwerk Das CUDOS-Netzwerk bietet eine Schicht 2 für verschiedene Blockchains, um die aktuellen Skalierbarkeitsprobleme zu lösen. Das CUDOS-Netzwerk besteht aus einer Reihe intelligenter Verträge, die als Rechenorakel fungieren und Blockchains verbinden, um externe Quellen dezentral zu sichern. CUDOS ermöglicht es intelligenten Verträgen, Berechnungen außerhalb der Kette anzufordern, und bietet eine Turing-Komplettlösung, mit der Code in jeder Sprache wie Python, Go oder C ++ ausgeführt werden kann. 3.1.1 Wie es funktioniert Die Verbindung zur Außenwelt erfolgt über die CUDOS Validator Nodes (CVNs), die eine der Hauptpfeiler des CUDOS-Netzwerks darstellen. Blockchain-Entwickler können über die CUDOS-Smart-Verträge den gewünschten Dezentralisierungsgrad auswählen, indem sie auswählen, wie viele CVNs den gewünschten Code empfangen und ausführen sollen. Dies gibt Entwicklern die Möglichkeit, die am besten geeigneten Einstellungen und Konfigurationen für jeden Job auszuwählen. 21 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Sobald jeder CVN den Job ausgeführt hat, teilen alle das Ergebnis und führen das Validierungs- und Konsensstück aus. Der Konsens im CUDOS-Netzwerk kann entweder in der Kette oder außerhalb der Kette erfolgen, um die Transaktionskosten des Netzwerks nach dem Willen des Entwicklers, der die Arbeit anfordert, weiter zu senken. Dieses System gibt den Entwicklern die Kontrolle zurück und ermöglicht ihnen nicht nur, den gewünschten Dezentralisierungsgrad zu wählen, sondern auch die Kosten für die Gesamtanforderung zu kontrollieren. 3.1.2 CUDOS Validator Nodes (CVNs) CVNs sind das Rückgrat des CUDOS-Netzwerks. Das CUDOS-Netzwerk unterstützt zunächst maximal 100 Dienstanbieter mit einer maximalen Anzahl von 1.000 CVNs. Jeder Knoten muss 2.000.000 CUDOS einsetzen, um ein CVN zu werden. Die erste Gruppe von Validatoren verfügt über von Cudo validierte Hardware-Boxen, um sicherzustellen, dass die Spezifikationen einen reibungslosen Ablauf aller beabsichtigten Arbeiten ermöglichen und entsprechend belohnt werden. Diese Arbeit und Belohnungen umfassen: • 24x7-Einnahmen von der Cloud-Seite der Schicht 3 (siehe Abschnitt 3.2) • Einnahmen aus abgeschlossenen Blockchain-Rechenaufträgen über das CUDOS-Netzwerk • Belohnungen für den Beitrag zum Netzwerk setzen • Rabatte auf die gezahlten Gebühren Ein weiterer Vorteil des CUDOS-Netzwerks besteht darin, dass alle CVNs zusätzlich zu der durch ihre Dezentralität hinzugefügten Sicherheit über Hardware mit Verschlüsselungsfunktionen verfügen, die den Workloads für alle Seiten eine zusätzliche Sicherheitsebene hinzufügt. 22 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
3.1.2.1 AMD SEV Extra Security Layer AMD bietet zwei wichtige Sicherheitsfunktionen: Secure Memory Encryption (SME) und Secure Encrypted Virtualization (SEV). KMU umfassen einen Hardware-Speichercontroller, der Daten auf ihrem Weg zwischen dem DRAM und der CPU verschlüsselt und entschlüsselt. SEV schützt Gast-VMs vor einem böswilligen Hypervisor, indem es in einer sicheren Enklave ausgeführt wird, in der keine andere Software auf dem Computer auf Daten zugreifen kann. Um zu vermeiden, dass der Hypervisor direkt nach dem Stoppen auf den Registerinhalt einer VM zugreift, verschlüsselt SEV-ES (SEV Encrypted State) den gesamten Inhalt des CPU-Registers, wenn eine VM nicht mehr ausgeführt wird. SEV verschlüsselt virtuelle Maschinen (VMs), um die auf ihnen ausgeführten Daten vor Angriffen wie dem physischen Entfernen eines nichtflüchtigen Speichermoduls zu schützen. Es schützt die Daten auch vor anderen VMs, die auf demselben Computer ausgeführt werden, oder vor dem Hypervisor, auf dem sie gehostet werden. Um den Status des Gastregisters vor dem Hypervisor zu schützen, ermöglichte SEV-ES VMs die Kontrolle über die Exits zum Hypervisor. Verschlüsselungsschlüssel sind für jede sichere VM mit Tags versehen, und die Daten dieser VM dürfen nur dieses Tag verwenden. Diese Verschlüsselungsschlüssel liefern den Beweis, dass SEV auf der Hardware unterstützt wird und dass eine Gast-VM sicher mit SEV bereitgestellt wurde. Darüber hinaus verwendet SEV ein Remote-Attestierungssystem. Die SEV-Firmware erstellt einen Schlüsselsatz, um einen sicheren Kanal zwischen dem Gastbesitzer und der SEV-Plattform herzustellen und um zu beweisen, dass sich die Gast-VM im gewünschten Zustand befindet. Es gibt ein spezielles System-on-Chip, das die kurzlebigen Verschlüsselungsschlüssel erstellt, und einen AMD-Server, der die Authentizität des Identitätsschlüssels jeder SEV-Firmware überprüft. Da CVNs über AMD EPYC-Chips verfügen, die SEV unterstützen, bietet diese Technologie beiden Transaktionspartnern diese zusätzliche Schutzschicht, sobald die Blockchain-Workloads auf diesen Chips ausgeführt werden. 3.1.2.2 Delegierte Absteckung Benutzer, die bereit sind, zum CUDOS-Netzwerk beizutragen, aber keinen vollständigen CVN ausführen möchten, können ihren Anteil an einen CVN delegieren. Auf diese Weise werden sie für ihren Beitrag zum Netzwerk belohnt, ähnlich wie die von ihnen unterstützten CVNs. Durch den Empfang von mehr delegierten Einsätzen erhöhen die Validierungsknoten ihre Vertrauensbewertung. Die Vertrauensbewertung ist eine Metrik, die Blockchain-Entwicklern bei der Auswahl der zu verwendenden Knoten hilft, indem sie unterschiedliche Merkmale jedes Knotens angibt, einschließlich: • Punktzahl setzen • Zuverlässigkeitsbewertung • Verfügbarkeitsbewertung • Sicherheitsbewertung Der Vertrauenswert wird auch verwendet, um das Gewicht jedes CVN in der gesamten CUDOS-Netzwerk- Governance zu bestimmen. 23 Für weitere Informationen wenden Sie sich bitte an token@cudos.org oder besuchen www.cudos.org
Sie können auch lesen