Was macht ein Rechenzentrum AI-ready?

Die Revolution der Artificial Intelligence (AI) steht bevor. Unternehmen aus allen Branchen setzen AI ein, um ihre geschäftlichen Herausforderungen zu meistern. Sie müssen unter anderem ihre Effizienz steigern, eingehende Analysen durchführen und das Kundenerlebnis verbessern.

Im Rahmen einer kürzlich durchgeführten Umfrage von 2’100 IT-Entscheidungsträgern in Europa nutzen oder testen fast zwei Drittel der befragten Unternehmen (61.7%) heute aktiv AI, in der Schweiz sind es bereits 69.3%.

Auch wenn sich die Anforderungen an AI-Lösungen von Branche zu Branche unterscheiden, ist es für Unternehmen dennoch entscheidend, die erforderlichen Grundlagen zu schaffen – zwei von drei Schweizer Unternehmen sehen den Mangel an passender Infrastruktur als eines der drei Haupthindernisse. Das zeigt, dass bei der Entwicklung von AI-Strategien die Wahl der IT- und Rechenzentrumspartner - einschliesslich Colocation-Lösung - immer wichtiger wird.

 

Allerdings ist es so, dass nicht jeder Colocation-Anbieter in der Lage ist, AI-Support zu leisten. AI stellt ganz andere Anforderungen an das Rechenzentrum als herkömmliche Workloads. Da neue AI-Anwendungen eine grössere Menge an Rechenleistung benötigen, steigen auch Stromverbrauch und Wärmeerzeugung. High-density Workloads haben spezielle Strom-und Kühlungsanforderungen.

Fortschritte in der Technologie und Standards für ‚High Density‘ gehen Hand in Hand, sodass wir in Zukunft damit rechnen können, dass diese Werte weiter zunehmen. 1961 entwickelte der deutsche Physiker Rolf Landauer einen Hypothese, die heute als ‚Landauer-Prinzip‘ bekannt ist und zeigt, dass es ein Limit dafür gibt, wie viele Berechnungen pro Kilowattstunde verarbeitet werden können. Grundsätzlich müssen Computer nach den Gesetzen der Physik arbeiten, und zusätzliche Rechenleistung verursacht einen höheren Energieverbrauch und erzeugt mehr Wärme.

Was eine Colocation-Infrastruktur „AI-ready“ macht, ist ihre Fähigkeit, Support für high-density Workloads zu leisten. Ausserdem besitzen Colocation-Infrastrukturen fortschrittliche Kühlkapazitäten, um die Workloads stabil und betriebsbereit zu halten. Wenn man eine Beurteilung nach diesen Kriterien abliefern müsste, würde man feststellen, dass die meisten Colocation-Anbieter der Aufgabe einfach nicht gewachsen sind.

 

Der richtige Support für AI

All das, was eine Colocation-Einrichtung heute AI-ready macht, war bisher stark eingeschränkt aufgrund physischer Restriktionen in Bezug auf Leistungsdichte und Kühlleistung. Eine erfolgreiche Rechenzentrumslösung beinhaltet aber auch noch andere wichtige Elemente wie beispielsweise das Benutzererlebnis und eine garantierte Verfügbarkeit. Falls Sie einen Colocation-Service für Ihre AI-Anwendungen in Betracht ziehen, dann bewerten Sie die potenziellen Anbieter anhand der unten aufgelisteten Kriterien. So steht einer erfolgreichen Bereitstellung nichts mehr im Weg:

 

 

Die Rechenleistung

Künstliche Intelligenz erfordert eine enorme Menge an Rechenleistung. Ohne innovative Technologien für die Verarbeitung von Lösungen würde ein Unternehmen lange Rechenzeiten riskieren – und das könnte ein schlechtes Benutzererlebnis oder eine verlorene Geschäftsmöglichkeit bedeuten. Das Aufkommen von GPUs (Graphics Processing Units) bietet bahnbrechende Performance für komplexe AI-Modelle in einem Bruchteil der Zeit, die andere Plattformen benötigen. Moderne Einrichtungen, die AI-ready sind, verwenden GPUs, um Anwendungen zu beschleunigen und exponentielle Verarbeitungsmöglichkeiten für die Zukunft zu planen.

Beispielsweise können die DGX-1-Server von NVIDIA mit GPUs 140-mal schneller lernen als die CPU-only Server. Mit dem DGX-1 kann ein Deep Learning Training in etwas mehr als 5 Stunden abgeschlossen werden (ein Server mit CPU-only benötigt dafür 711 Stunden). Dies entspricht einer Performance von über 1 Petaflop; das DGX-2-Produkt von NVIDIA bietet sogar über 2 Petaflops. Mit derartigen Performance Levels vergrössern sich natürlich die Möglichkeiten für IT-Teams und der Beitrag an die Erfüllung der Unternehmensziele.

 

Die Stromverwaltung

Energieeffizienz im Rechenzentrum gewinnt mit der zunehmenden Verbreitung von AI eine ganz neue Bedeutung. Anwendungen für Machine Learning erfordern viel Datentraining und ausgeklügelte Algorithmen, um zufriedenstellende Ergebnisse zu erzielen - und mit zunehmender Dichte wächst der Energiebedarf.  

AI-Workloads benötigen viel mehr Energie als die 7 kW pro Rack, die für viele Rechenzentren als durchschnittliches Ziel gelten. Es ist nicht ungewöhnlich, dass eine AI-Anwendung mehr als 30 kW pro Rack verbraucht, sodass der Strombedarf pro Rack schnell die Leistung eines Standard-Rechenzentrums übersteigt. Dazu kommt redundante Stromversorgung, um Ausfallzeiten zu minimieren. Es wird klar, dass AI-Anwendungen kontinuierlichen, zuverlässigen Strom brauchen – und zwar viel davon -, was die Kosten schnell in die Höhe treiben kann. Es ist von entscheidender Bedeutung, mit einem Colocation-Anbieter zusammenzuarbeiten, der über spezifisches Fachwissen verfügt – um Kosten im Griff zu behalten und den Stromverbrauch effizient zu verwalten.

 

Die Anforderungen an die Kühlung

Mit dem steigenden Strombedarf für einzelne Racks steigt auch der Bedarf an hoch-effizienter Kühlung. Wenn Ihre Colocation-Infrastruktur nicht darauf vorbereitet ist, Support für die Kühlung zu leisten, um die gewünschten Werte für AI-Anwendungen zu erzielen, dann ist Ihre Infrastruktur höchstwahrscheinlich auch nicht darauf vorbereitet, Ihr zukünftiges Computing zu unterstützen.

Wachsende Workloads erfordern immer mehr Ressourcen, um die niedrigeren Temperaturen aufrechtzuerhalten, die für den Betrieb der Server erforderlich sind. Fan Cooling wird ab 16 kW schwieriger und ist für viele high-density Anwendungen nicht ausreichend. Ein hoher Stromverbrauch deutet darauf hin, dass alternative Kühlmethoden notwendig sind, um Geräteausfälle zu vermeiden und einen effizienten Betrieb zu gewährleisten.

                                                                                                                

Data Center Frontier berichtet, dass der Trend zum Liquid Cooling ein allmählicher (aber bemerkenswerter) Trend in der Rechenzentrumsbranche ist. Beim Liquid Cooling wird normalerweise Wasser verwendet. Wie diese Kühlsysteme funktionieren, hängt vom genauen System ab. Einige Lösungen verwenden direct-to-chip Liquid Cooling, während andere Wasser verwenden, um die Luft mit einem Heat Exchanger zu kühlen. Ganz unabhängig von der Methode bietet das Liquid Cooling wesentliche Vorteile - in einigen Fällen wird der Stromverbrauch um 20 Prozent reduziert (von 1,5 bis 2,0 PUE auf unter 1,1).

Der Gesamtwasserverbrauch in Rechenzentren variiert stark, und Liquid Cooling-Systeme erhöhen den Wasserverbrauch. Mit einem luftgekühlten System kann es sein, dass der Wasserverbrauch 8- bis 16-mal niedriger ist als in einem Rechenzentrum mit Liquid Cooling. Colocation-Anbieter können aber praktische Schritte einleiten, um die Umweltbelastung zu verringern, indem sie den Trinkwasserverbrauch reduzieren und stattdessen auf aufbereitetes Wasser zurückgreifen, wodurch sie sowohl AI-ready als auch umweltfreundlich werden. Effiziente und nachhaltige Kühlung schützt Ihre Colocation-Investition und schont gleichzeitig die Umwelt.

Die User Experience (UX)

Neben den technischen Anforderungen, die ein AI-ready Rechenzentrum erfüllen muss, steht die User Experience (UX) im Mittelpunkt reibungslos funktionierender AI-Anwendungen. Unerwartete Ausfallzeiten und mangelnder Support vor Ort können sich äusserst negativ auf die UX auswirken.

Gartner berechnete 2014, dass Unternehmen in nur einer Stunde Ausfallzeit durchschnittlich mehr als 300.000 US-Dollar verlieren können - eine Zahl, die in den letzten fünf Jahren weiter gestiegen ist. Ein zuverlässiger Colocation-Partner bietet mindestens fünf Neuner (99,999 %) an Uptime – das sind weniger als sechs Minuten Ausfallzeit pro Jahr.

 

Einmalige Infrastruktur, Ausfallsicherheit und Support

Wir leben in anspruchsvollen Zeiten, in denen das Bedürfnis nach Kontinuität gross ist. Hohe Performance und erstklassiger Service stehen auch ganz oben auf der Prioritätenliste – es sind alles Kundenanforderungen, die nur AI-basierte Technologien erfüllen können. Erfolgreiche AI-Anwendungen brauchen hochperformante Infrastrukturen, um Ihre Geschäftsziele unterstützen zu können.

Den nächsten grossen Schritt machen Sie am besten mit dem richtigen Colocation-Partner. Interxion: A Digital Realty Company ist führend in der Umsetzung von digitalen Ambitionen für Kunden auf der ganzen Welt. Als einziges Schweizer Rechenzentrum, dass vom Weltmarktführer NVIDIA AI-zertifiziert ist, bietet Interxion: A Digital Realty Company zudem als Einziger die direkte Anbindung an die Clouds von AWS, Google und Microsoft unter einem Dach, also ideale Bedingungen für den Betrieb von AI-Lösungen. Unser neuestes Expansionsprojekt ZUR3 in Zürich umfasst über 11.000 m2 und wird die Entwicklung von bis zu 24 Megawatt (MW) zusätzlicher IT-Kapazität unterstützen. Sind Sie bereit für den Schritt in die Zukunft? Erfahren Sie mehr über die Colocation-Services von Interxion: A Digital Realty Company.