Die 10-Jahres-Reise eines Erfinders zur Quantifizierung der Explosion des Wachstums von Unternehmensdaten

Dave McCrory, VP Growth

Kategorien

12 Oktober 2020

Im Jahr 2010, als Teil von Dell DCS, wurde mir klar, dass die Generierung und Sammlung von Daten ein Trend ist, den es zu untersuchen gilt. Mit dem Fortschreiten der Forschung führten neue Kuriositäten zu einer größeren Frage: 

Was passiert, wenn die Quellen, die Daten erstellen, und die wachsenden Datenmengen miteinander interagieren?

Daraus resultierend, müsste man Daten als einen Planeten oder ein Objekt mit ausreichender Masse betrachten. Wenn Daten Masse aufbauen, werden sie voraussichtlich zusätzliche Dienste und Anwendungen anziehen. Dies ist der gleiche Effekt, den die Schwerkraft auf Objekte um einen Planeten herum hat.

Datengravitation (Substantiv) * Da-ten-gra-vi-ta-tion

Der Effekt, der große Datensätze oder hochaktive Anwendungen/Dienste zu anderen großen Datensätzen oder hochaktiven Anwendungen/Diensten hinzieht, so wie die Schwerkraft Planeten oder Sterne anzieht.

Clevere Unternehmen würden versuchen, den Effekt von Datenwachstum und -anziehung in der Cloud zu nutzen. Die meisten Großunternehmen sind sich jedoch nicht im Klaren darüber, wie schnell ihre Daten wachsen.

Sie haben auch nicht erkannt, wie viele Dinge eigntlich Daten erzeugen, wie 

  • Sensoren
  • Systeme
  • Mitarbeiter
  • Kunden
  • Die Anwendungen/Dienste, die mit ihnen kommunizieren

All diese Elemente müssen so schnell, effizient und sicher wie möglich funktionieren. Dies erfordert die Nähe zu den Quellen der Datenerstellung, -verarbeitung, -aggregation und -austausch sowie -anreicherung. Unternehmen können keine optimalen Ergebnisse von großen Datenmengen erwarten, die in weit entfernten, langsamen Netzwerken zusammenlaufen.

Wenn Sie mit großen Datenmengen und/oder hohen Verarbeitungsaktivitäten arbeiten, dann müssen die anderen Elemente des Systems näher an diese herangeführt werden.

 

Was ist die Verstärkung der Datengravitation?

Software verschlingt nicht mehr die Welt; Daten verschlingen die Welt, und das werden sie auch in absehbarer Zukunft tun. Konkret gibt es fünf Makrotrends, die die Datenschwerkraft verstärken, darunter

Enterprise Data Stewardship

Enterprise Data Stewardship

 

Das Unternehmen entwickelt sich schnell zum weltweiten Datenverwalter.

Bis 2025 werden 80 % der Daten weltweit in Unternehmen gespeichert sein.

Erhöht das Volumen der Daten, die aggregiert und gespeichert werden müssen.

Fusionen und Übernahmen

Fusionen und Übernahmen

 

Die Globalisierung treibt Unternehmensübernahmen und -zusammenschlüsse in die Höhe.

Es wird erwartet, dass das M&A-Volumen im Jahr 2021 wieder das Niveau von vor dem COVID erreichen wird.

Erhöht die Anzahl der am Datenaustausch teilnehmenden Datenquellen

Digital-unterstützte Interaktionen

Digital-unterstützte Interaktionen

 

Zunehmende Digitalisierung von Unternehmensabläufen

Digital aktivierte Interaktionen sind doppelt so wichtig wie physische Interaktionen

Steigert das Volumen des Unternehmensdaten- austauschs weltweit

Daten-Lokalisierung

Daten-Lokalisierung

 

Erweiterte gesetzliche und regulatorische Richtlinien, die eine lokale Datenspeicherung erfordern

Bis 2022 werden 87% der IT-Führungskräfte lokale Kopien von Kunden- und Transaktionsdaten zur Einhaltung der Vorschriften aufbewahren.

Erhöht die Anzahl der Unternehmensstandorte der Datenaggregation

Cyber-Physikalisch

Cyber-Physikalisch

 

Integration von physischen und digitalen Sicherheitssystemen zur Verbesserung der Cybersicherheit von Unternehmen 

Bis 2023 werden 70% der Sicherheitsprodukte IT-OT-IOT-Systeme integrieren 

Erhöht Arten und Volumen der Datenerstellung und des Datenaustauschs 

 

Diese Faktoren bilden den perfekten Nährboden für diese Datenexplosion. Die Datenschwerkraft hemmt die Leistung der Arbeitsabläufe in Unternehmen, wirft Sicherheitsbedenken auf und erhöht die Kosten, alles erschwert durch regulatorische Anforderungen und andere künstliche Einschränkungen. Mit der Datenschwerkraft überschneiden sich die Gesetze der Physik und der IT, um einen Stellvertreter für ein neues Zeitalter von Geschäftsarchitekturen zu bilden, zu deren Annahme die Unternehmen getrieben werden und zu deren Unterstützung die Dienstanbieter gedrängt werden.

In den letzten Jahren habe ich kontinuierlich eine Formel und Methodik der Datenschwerkraft erforscht, getestet und optimiert, die helfen würde, die Intensität der Datenschwerkraft zu erklären. Als ich die Grundlage der Formel (Masse mal Aktivität) erkannte, wusste ich, dass ich endlich damit beginnen konnte, Dinge zu quantifizieren, die ich vor dieser Erkenntnis nicht konnte.

 

Warum Digital Realty

Kürzlich begann ich als Datenarchitektur- und Strategieberater mit Digital Realty als Kunde zu arbeiten. Mir wurde schnell klar, dass wir die gleiche Vision für die Zukunft teilten - eine, in der die Datengravitation die gesamte hybride IT-Infrastruktur beeinflusst.

Anfang dieses Jahres habe ich mich dem Team auf Vollzeitbasis angeschlossen, um diese Vision voranzutreiben. Es war ein entscheidender Schritt auf meinem 10-jährigen Weg der intensiven Forschung über die Sammlung, das Wachstum und die Aktivitäten des privaten Datenaustauschs.

Ich bin dem Team von Digital Realty beigetreten, weil sie eine zukunftsweisende Sicht auf die Digitalökonomie haben. Dazu gehört die Weitsicht, weltweit Multi-Tenant-Rechenzentrumseinrichtungen aufzubauen, um eine sichere, neutrale Plattform für Unternehmen und Dienstleistungsanbieter zu schaffen, die ihre Infrastruktur in unmittelbarer Nähe und doch getrennt voneinander betreiben können. Als weltweit größter Anbieter von Multi-Tenant-Rechenzentrumskapazität1 verfügen sie über einen einzigartigen Einblick in den Aufbau, die Bereitstellung und den Betrieb der technologischen Infrastruktur. Daher haben wir uns gemeinsam dafür entschieden, eine aktive Rolle beim Verständnis der Auswirkungen der Intensität der Datendichte und der Implikationen für eine neue, durch die digitale Transformation getriebene Geschäftsarchitektur zu übernehmen.

 

Enthüllung des Data Gravity Index DGx™ 1.0

Seit ich zu Digital Realty gekommen bin, arbeite ich an einem bis heute geheimen Projekt mit dem Namen The Data Gravity Index DGx™ 1.0. Das verstehe ich unter einem entscheidenden Schritt. Jetzt verfügt Data Gravity über eine Methodik, eine zum Patent angemeldete Formel und ein entzifferbares Muster. Es ist das erste Mal, dass die Data Gravity für die Unternehmen von Global 2000 gemessen und quantifiziert wurde.

 

Was bietet der Data Gravity Index DGx?

  • Der Data Gravity Index DGx gibt Aufschluss darüber, wie schnell die Daten in den nächsten fünf Jahren wachsen und verbraucht werden und was dies alles für die Forbes Global 2000 Unternehmen bedeutet.
  • Er liefert einen Data Gravity Score über 21 globale Metropolen hinweg, um Unternehmen dabei zu helfen, die Auswirkungen der Erstellung, Aggregation und des privaten Austauschs von Unternehmensdaten zu verstehen.

Um die erste Messung und Quantifizierung der Datendichte für die Unternehmen von Global 2000 effektiv bereitzustellen, haben wir 12 Monate lang Forschungsarbeiten aus mehreren maßgeblichen Quellen zusammengetragen. Zusätzlich führten wir eine umfassende Ursache-Wirkungs-Studie durch. Am Ende waren wir in der Lage, eine Formel zur Messung, Quantifizierung und Bestimmung der Auswirkungen der explosionsartigen Zunahme der Unternehmensdaten zu entwickeln.

Die Berechnung der Datenschwere erfordert eine Methodik, die Datenmasse, Datenaktivität, Bandbreite und Latenz einschließt. Der Data Gravity Index DGx™ implementiert eine zum Patent angemeldete Formel, die die kontinuierliche Erzeugung von Daten in 21 Metropolen weltweit quantifiziert und vorhersagt.

Der Score wird in Gigabyte Daten pro Sekunde berechnet und stellt einen relativen Proxy für die Messung der Datenerzeugung, -aggregation und -verarbeitung dar. Er berücksichtigt mehrere Attribute von G2000-Unternehmen, darunter

  • Firmographische Daten (Branchensegment, Mitarbeiterzahl, Umsatz, Standort und Unternehmenseinheit)
  • Technographische Daten (IT-Ausgaben, bevorzugte Anbieter, Verteilung des Netzwerkverkehrs, Netzwerk-PoPs, PoPs von Datenzentren und Cloud-PoPs)
  • Branchen-Benchmarks (Datenerstellungs-/Übertragungsraten, Latenzzeit nach Zugriffsmethode, Benutzertyp, Standort, Anwendungstyp, Wachstumsraten, Cloud-Nutzung, Netzwerkdienste, verteilte Dienste, Datentechnologien, Endpunkte, Benutzergeräte und Anwendungsnutzungsfälle)

 

Was müssen Unternehmen gegen die Datengravitation tun?

Data Gravity erzwingt eine neue datenzentrische Architektur, die den Datenfluss umkehrt, um Benutzer, Netzwerke und Clouds auf privat gehostete Unternehmensdaten zu bringen. Mit dieser neuen Architektur werden die Barrieren der Datengravitation beseitigt und neue Fähigkeiten freigesetzt.

Für die Global-2000-Unternehmen bedeutet Data Gravity, dass das Multi-Tenant-Rechenzentrum auf eine ganz neue Ebene gehoben werden muss. Es muss ein sicherer, neutraler Standort für das private Hosting von Daten sein, die mit öffentlichen Diensten, Benutzern, Partnern, Mitarbeitern und anderen Dingen weltweit verbunden sind.

 

Was sollten Dienstanbieter gegen die Datengravitation unternehmen?

Keine Branche ist vor den durch die Datengravitation verursachten Beeinträchtigungen und Barrieren gefeit. Wenn man zum Beispiel darüber nachdenkt, was Sicherheits- und Latenzprobleme im Gesundheitswesen und in der Finanzbranche anrichten können, ist es nicht schwer, sich vorzustellen, welchen Schaden sie verursachen.

Mit unserer Initiative zur Bewältigung der Datengravitation können wir dazu beitragen, Dienstleistungsanbieter in eine günstige Position zu bringen, um Wettbewerbsvorteile zu erzielen. Der Schlüssel liegt in der Positionierung ihrer Fähigkeiten neben den Unternehmensdaten und an den Standorten der Geschäftspräsenz. Durch die Partnerschaft mit einem Multi-Tenant-Rechenzentrumsanbieter können sie die direkten Verbindungen herstellen, die ihre Kompetenzen mit den Daten verbinden.

 

Was ist das Nächste für Data Gravity und Digital Realty?

Es ist zwar erfreulich, das Verständnis der Datengravitation zu erreichen und sie anzuwenden, um globalen Unternehmen und Dienstleistern zu helfen, aber ich freue mich darauf, mit dem Team von Digital Realty zusammenzuarbeiten, um unsere Erkenntnisse und Initiativen bei diesem Durchbruch kontinuierlich zu verbessern.

Der Data Gravity Index DGx 1.0 wird genau wie die Software aktualisiert werden, in Minor- und Major-Releases: 1.X-Releases werden Major-Releases sein, und X.1-Releases werden Minor-Releases sein. Es wird noch viel mehr passieren, wenn sich die Dinge im Bereich der Datengravitation weiterentwickeln. Mit dem Data Gravity Index DGx sind wir in der Lage, Unternehmen eine Grundlage für die Strategie, den Aufbau und die Planung einer sich schnell und ständig verändernden Geschäftslandschaft zu bieten, in der Daten das Lebenselixier des Geschäfts sind. Ich lade Sie ein, diesen Eröffnungsbericht herunterzuladen, sich kopfüber in den Megatrend zu stürzen und uns Ihre Meinung mitzuteilen.

Blog

1. IDC #US44413318, Data Age 2025, The Digitization of the World From Edge to Core, November 2018
2. Goldman Sachs, BRIEFINGS Newsletter June 16, 2020
3. McKinsey, B2B Decision Maker Pulse Survey, April 2020
4. 451 Research , Infrastructure Imperative – IT Leader Survey, November 2019
5. Gartner, Emerging Technology Analysis- Cyber-Physical Security. ID: G00726994
6. 451 Research, Market Forecast, Leased Datacenter Global Providers, 2020.
Capacity measured in terms of both the number of datacenters and operational square footage.