
Microsoft errichtet in Mount Pleasant (Wisconsin) ein neues Hyperscale-AI-Datacenter mit dem Codenamen Fairwater, das nach Unternehmensangaben die weltweit höchste KI-Leistung bündeln soll. Der erste Campus ist Teil einer Investition von 3,3 Milliarden US-Dollar und wurde um ein zweites, gleich großes Rechenzentrum für weitere 4 Milliarden US-Dollar erweitert. Fairwater ist primär als KI-Fabrik ausgelegt: zum Training und zur Inferenz modernster Modelle, zunächst für OpenAI und Azure-Dienste wie Copilot. Das Konzept unterscheidet sich von klassischen Cloud-Regionen: Statt viele heterogene Workloads zu verteilen, wird hier ein extrem eng gekoppelter Supercomputer aufgebaut, der hunderttausende NVIDIA-Beschleuniger in ein gemeinsames, verlustarmes Hochgeschwindigkeitsnetz verbindet. Microsoft spricht davon, dass Fairwater die zehnfache Leistung des derzeit schnellsten Supercomputers erreichen und damit Entwicklungszyklen für Frontier-Modelle deutlich verkürzen soll.
Wofür Fairwater genutzt wird: OpenAI-Training, Azure-KI und großskalige Inferenz
Die erste Ausbaustufe von Fairwater dient dem Pretraining und Finetuning der nächsten OpenAI-Generationen; parallel stellt die Anlage Kapazitäten für Azure OpenAI und Copilot bereit. Der Fokus liegt auf Workloads mit riesigen Kontextfenstern, Multimodalität und komplexen Werkzeugketten – genau den Szenarien, die konsistente Latenz und extrem hohe GPU-zu-GPU-Bandbreiten erfordern. Im Ergebnis sollen sich Trainingsläufe, die bisher Wochen dauerten, auf deutlich kürzere Intervalle verdichten; zudem werden mehr Experimente parallel möglich, was die Kadenz neuer Modell-Releases erhöht.
Was technisch drinsteckt: GB200-/GB300-GPU-Cluster, verlustarme Fabrics, Kilometer an Glasfaser
Im Zentrum stehen Cluster aus NVIDIA-GB200 (Blackwell-Generation), die in Rack-Domänen mit dicht verdrahteten NVLink/NVSwitch-Topologien zusammengeschaltet werden. Zwischen den Domänen spannt sich eine skalierte Fabric aus Hochgeschwindigkeits-Ethernet und InfiniBand, optimiert für KI-Workloads mit großem All-to-All-Verkehr. Microsoft betont die nahezu verlustfreie Kopplung über viele Racks hinweg – eine Voraussetzung, damit hunderttausende GPUs wie ein einheitlicher Supercomputer arbeiten. Die Netz- und Versorgungsinfrastruktur ist entsprechend dimensioniert: Es werden Glasfasermengen verlegt, die ausreichen würden, die Erde mehr als viermal zu umspannen; Campus-weit kommen hunderte Kilometer Mittelspannungs- und Steuerleitungen sowie umfangreiche Mechanik-Pipelines hinzu. Perspektivisch plant Microsoft die nächste Stufe mit GB300 (Rubin-Generation) in weiteren Regionen, während Wisconsin als Flotten-Standard zunächst GB200 skaliert.
Kühlung und Energie: Geschlossener Flüssigkreislauf, „Dry-Operation“ und grüner Ausgleich
Fairwater setzt auf eine flüssigkeitsbasierte Direktkühlung mit geschlossenem Kreislauf. Nach der Erstbefüllung zirkuliert das Medium im System; laufender Wasserverbrauch fällt im Normalbetrieb nicht an. Nur bei seltenen Spitzenlast- und Hitzesituationen unterstützen adiabate bzw. luftseitige Systeme. Der Ansatz reduziert Wasserbedarf und verbessert gleichzeitig die thermische Effizienz – essenziell bei eng gepackten GB200-Racks. Beim Strom verfolgt Microsoft einen CO₂-freien Ausgleich über zusätzliche Erneuerbaren-Kapazitäten in der Region und bindet die Anlage in ein Netz aus skalierbaren Erzeugern und Speichern ein. Ziel ist es, die Gigawatt-Lasten planbar bereitzustellen, ohne lokale Tarife zu belasten; dazu werden Infrastrukturmaßnahmen vorfinanziert und mit dem Versorgerumfeld abgestimmt.
Speicher- und Datenpfade: GPU-nahes Laden und skalierbarer Objektspeicher
Damit die teuren Beschleuniger permanent ausgelastet bleiben, wird die Datenebene GPU-nah organisiert. Trainingsdaten liegen auf hochskalierenden Objektspeichern mit massivem Durchsatz; Caching- und Prefetch-Pfad sind auf hohe IOPS und sequentielle Ströme ausgelegt, sodass Sharding und Data-Loader die GPU-Zeit nicht ausbremsen. Microsoft verweist auf Azure-Optimierungen, die pro Datenkonto Millionen Operationen pro Sekunde ermöglichen und in der Breite Exabyte-Skalen adressieren – ein Baustein, um sehr große Token-Mengen zuverlässig durch den Cluster zu führen.
Warum Wisconsin? Fläche, Klima, Netze – und ein vorbereitetes Ökosystem
Mount Pleasant liegt zwischen Milwaukee und Chicago und bietet eine seltene Kombination aus sofort verfügbarer Großfläche und bestehender Versorgungs- und Glasfaserinfrastruktur. Das Areal stammt aus dem Foxconn-Projekt und ist bereits für Hyperscale-Lasten vorbereitet – inklusive Erschließung, Zuwegungen und Netzanschlüssen. Das kühlere Klima am Lake Michigan verbessert die Abwärmeabfuhr, was gerade für flüssigkeitsgekühlte Hochleistungs-Racks Vorteile bringt. Zusätzlich bindet Microsoft regionale Ausbildungs- und Qualifizierungsprogramme ein, um Betrieb und Ausbau langfristig personell abzusichern. Kurz: Wisconsin liefert Platz, Klima und Netze – genau die Parameter, die ein Supercomputer dieser Größenordnung benötigt.
Zeitplan, zweite Ausbaustufe und Ausblick
Die Inbetriebnahme der ersten Fairwater-Ausbaustufe ist für Anfang 2026 avisiert; parallel entsteht in der Region ein zweiter Campus für rund 4 Milliarden US-Dollar, wodurch sich das Gesamtvolumen auf über 7 Milliarden US-Dollar erhöht. Strategisch gehört Fairwater zu einer Familie identischer AI-Standorte, die Microsoft in den USA und Europa aufbaut. Mit jedem zusätzlichen Campus wächst die globale Trainingsflotte – und damit die Möglichkeit, größere Modelle schneller zu entwickeln, zu testen und auszurollen. Für Forschung, Industrie und Software-Ökosysteme dürfte das zu kürzeren Innovationszyklen und einer breiteren Verfügbarkeit starker KI-Funktionen führen.
Fairwater steht für den Wechsel von „Cloud-Region“ zu KI-Fabrik: eng gekoppelte GB200-/GB300-Cluster, verlustarme Fabrics, GPU-nahe Datenpfade und eine Kühlung, die den Dauerbetrieb bei hoher Leistungsdichte überhaupt erst ermöglicht. Dass Microsoft Wisconsin wählt, ist logisch: vorbereitete Hyperscale-Flächen, klimatische Vorteile und starke Netze. Mit der zweiten 4-Milliarden-US-Dollar-Erweiterung wird aus einem Leuchtturm eine gesamte Standort-Strategie – und die Basis für die nächste Generation von OpenAI- und Azure-Modellen.
Quellen
- Microsoft (DE-CH): Microsoft errichtet das weltweit leistungsstärkste KI-Rechenzentrum
- Microsoft (EMEA, Deutsch): Details zum Fairwater-Projekt
- WinFuture: Foxconn-Areal wird zum „stärksten“ KI-Rechenzentrum der Welt
- Investing.com (DE): Weltweit leistungsstärkstes KI-Rechenzentrum in Wisconsin
- IT-Boltwise: Microsofts neue KI-Rechenzentren revolutionieren die Cloud-Infrastruktur