Ihre Browserversion ist veraltet. Wir empfehlen, Ihren Browser auf die neueste Version zu aktualisieren.

Project Natick - Internet aus dem Ozean

Veröffentlicht am 30.06.2022

„50 Prozent von uns wohnen in der Nähe der Küste. Warum nicht auch unsere Daten?“

Wenn Sie Besitzer eines PC oder Laptops sind, dann werden Sie vielleicht auf unseren Aufmacher mit einem Stoßseufzer reagieren: „Na endlich dokumentiert mal jemand, dass die bei Microsoft nur Schrott verkaufen.“
Irrtum! Das ist kein rostiger Schrott, auch kein Überbleibsel von North Stream 2. Die Röhre gehört zu dem ehrgeizigsten und innovativsten Entwicklungsprojekt, das Microsoft je initiiert hat - Project Natick.

 

Es hat natürlich mit unserer modernen IT-Welt zu tun. Und so transportiert diese Röhre nicht, wie man denken könnte, Gas oder Öl, sondern Computer­power. Je mehr unsere Welt vernetzt ist durch Hochleistungs-Glasfaserkabel und Satellitentechnologie, desto weniger ist bei den Computernutzern vor Ort von der eigentlichen Hardware zu sehen. Selbst Universitäten und Großunternehmen leisten sich heute kaum noch teure Rechenzentren, die ein Heer von Technikern und Spezialisten brauchen, um die Hardware funktionsfähig zu halten.
Längst ist es möglich, auf riesigen Cloud-Rechnern irgendwo im Nirgendwo vollständige Windows-Systeme zu simulieren, die man anmieten und dann online von seinem PC ansprechen kann. Alle großen IT-Giganten bieten solche Cloud-Computingdienste längst an. Beispiele sind etwa Microsoft Azure, Amazon Web Services oder die Google Cloud Platform (GCP). Ähnlich wie Fernsehgeräte sind PCs und Laptops dann nur noch Empfänger, die mit einem Hardwarenexus kommunizieren, der irgendwo auf der großen weiten Welt installiert ist. Der Endnutzer muss sich um Softwareinstallationen nicht mehr kümmern.
So innovativ das Ganze klingt, so problematisch ist es auch. Wenn die gesamte Computerintelligenz in wenigen gigantischen Mega-Centern an den bekannten Standorten - etwa Seattle oder Silicon Valley - konzentriert ist, macht das unsere elektronische Lebensader, das Internet, hochgradig angreifbar. Zu Zeiten, als noch jeder PC seine eigene Festplatte mit eigenem WIndows hatte, war es für Cyberterroristen oder Sonnenstürme weitaus schwerer als heute, die gesamte Elektronikwelt auf einen Schlag lahmzulegen. Und hier setzt Project Natick ein. Ein „exponentiell denkendes Zukunfts­team“ von Microsoft (Aussage des Unternehmens) arbeitet daran, die Welt des Cloud Computing ähnlich zu dezentralisieren wie Elon Musk mit seinen satellitengestützten Starlink-Systemen, die sich im Ukrainekrieg ja schon bewährt haben. Nur geht Microsoft nicht in den Weltraum, sondern versenkt seine kleinen dezentralisierten Serverfarmen in Küstennähe im Ozean.

Es begann 2013...
...als der leitende Energie-Ingenieur von Microsoft, Sean James, ein ehemaliger U-Boot-Offizier der US Navy, einen Fachartikel verfasste über die Möglichkeiten, Computerhardware unter Wasser anzusiedeln. Ein Jahr später, im Juli 2014, ging das Project Natick in seine Phase 1. In einer 40 Fuß langen Röhre wurden in 12 Racks insgesamt 864 Server montiert, zusammen mit den notwendigen Kühlaggregaten. Das gesamte System wurde in Frankreich zusammengebaut. Die dort seit 400 Jahren ansässige Naval Group verfügte über jahrzehntelanges Know How aus dem Bau von U-Booten. Die Fachleute wussten genau Bescheid, welche Besonderheiten bei Unterwasser-Technologien zu beachten waren. Der fertige erste Prototyp eines Unterwasser-Rechenzentrums wurde anschließend per Schiff zu seinem Einsatzort nach Stromness auf den schottischen Orkney-Inseln gebracht. Der dortige Einsatzort war geradezu ideal. Zum einen war die oft stürmische See rund um die Inseln ein wirklicher Härtetest für die Hardware, zum anderen bot das in Stromness angesiedelte European Marine Energy Centre, eine Forschungsstation zur Erforschung von Gezeitenkraftwerken, einen problemlos in der Nähe gelegenen Ankopplungspunkt für die Server-Röhre an das World Wide Web. Die Inbetriebnahme und damit der Beginn von Phase 2 erfolgte im Juni 2018.


Die Orkney-Inseln werden zu 100% durch erneuerbare Energien mit Strom versorgt (Windkraft mit Gezeitenenergie als Backup). Das macht das Unterwasser-Rechenzentrum noch unabhängiger, da keine in Krisenzeiten möglicherweise nicht verfügbaren fossilen Brennstoffe benötigt werden. Die Teststation auf den Orkney-Inseln dient da nur als Vorbild. „Energieautarke Rechenzentren könnten überall in Reichweite einer Datenleitung bereitgestellt werden, um beispielsweise Azure-Clouddienste in Regionen der Welt mit unzuverlässigem Strom zu bringen und kostspielige Backup-Generatoren im Falle von Netzausfällen überflüssig zu machen.“, so die Aussage von Microsoft.
Das weltweit erste Unterwasser-Rechenzentrum erhielt den Namen „Natick Northern Isles“.


Zwei Jahre im Einsatz...
...war Natick Northern Isles anschließend, zunächst nur testweise für mehrere Microsoft-interne Benutzergruppen, zur allgemeinen Zufriedenheit übrigens. Ab März 2020 stellte man Ressourcen von Natick Northern Isles auch für die Forschung an Impfstoffen gegen Covid-19 zur Verfügung. Über die dortigen Clouddienste wurden sogenannte Folding-at-Home-Projekte (Simulation der Faltung von Proteinketten im Computer) durchgeführt und die Ergebnisse anschließend in das World Community Grid von IBM für verteilte Programmierung eingespeist.


Zeit zum Auftauchen...
...war nach Ablauf der zwei Jahre im Juli 2020. Man brachte das Rechenzentrum zurück an die Erdoberfläche. Dort muss­te seine Außenhaut als Erstes einer „Power-Wäsche“ unterzogen werden, um sie vom Bewuchs mit Algen, Krustentieren und Seeanemonen zu reinigen (es ist also kein Rost, den man auf den Fotos zu sehen glaubt!)
Anschließend konnten die Microsoft-Techniker und -Ingenieure das Innere des Datencenters begehen und auf seinen technischen Zustand überprüfen.

Es hatte sich schon im Testzeitraum gezeigt, dass das Unterwasser-Datencenter störungsfreier arbeitete als ein vergleichbares Rechenzentrum an Land. Verständlich, denn während das Unterwasser-Rechenzentrum in seinem wasserdicht versiegelten Behälter vollkommen von Umwelteinflüssen abgeschottet ist, kommt es an Land zu Korrosion durch Sauerstoff und Feuchtigkeit, Temperaturschwankungen und Eingriffe von Menschen, die kaputte Komponenten ersetzen. Das sind alles Variablen, die zum Ausfall der Ausrüstung beitragen können.
Wartungseingriffe bei der Software, die ja viel häufiger notwendig sind, konnten auch remote, also von einem abgesetzten Zugangs­terminal an Land, erfolgen.
Die Überprüfung der Daten durch die Microsoft-Wissenschaftler ist noch nicht abgeschlossen. Aber folgende Aussagen können schon jetzt gemacht werden:
Die Betriebssicherheit war als hervorragend zu betrachten. Die Ausfallsrate betrug nur ein Achtel der entsprechenden Quote eines landgestützten Rechenzentrums.
Der versiegelte Stahlmantel, die Wärmetauscher, aber auch die Server und alle anderen Computerkomponenten werden recycelt und vor dem erneuten Versenken durch neue ersetzt. Dies hätte man auch bei einem landgestützten Rechenzentrum nach zweijähriger Betriebsdauer unter Volllast getan.
Insgesamt ist das Project Natick als voller Erfolg anzusehen.

Dieser Artikel erschien zuerst in Matrix3000 Band 123

Cookie-Regelung

Diese Website verwendet Cookies, zum Speichern von Informationen auf Ihrem Computer.

Stimmen Sie dem zu?