aus dem Netzwerk Insider April 2026
Am 25. Februar dieses Jahres führte die ComConsult Akademie eine Sonderveranstaltung mit dem Titel „Server der Zukunft“ durch. Meine persönlichen Eindrücke von diesem Event lesen Sie in diesem Beitrag.
Kühlung als große Herausforderung
In der Insider-Ausgabe vom Januar dieses Jahres schrieb ich über Kühlung als große Herausforderung bei Planung und Betrieb von Rechenzentren. Server- und RZ-Kühlung waren auch das Thema des ersten Vortrages meiner Kollegen Dr. Ermes und Dr. Rüßmann auf der Sonderveranstaltung Server der Zukunft. Ein paar Highlights daraus:
- Der Schmelzpunkt einiger Elektronik-Materialien liegt bei 157 Grad Celsius. Also muss die Wärme so abgeführt werden, dass ein möglichst großer Sicherheitsabstand zu diesem Schmelzpunkt eingehalten wird.
- Nanotechnologie wird die Dichte von elektronischen Bauelementen auf Chips und somit die Dichte der entstehenden Wärmeenergie erhöhen.
- Die heute in den meisten Rechenzentren angewandte Luftkühlung wird künftig angesichts der immer höheren Leistungsdichte mit Flüssigkeitskühlung kombiniert werden müssen.
- Von der raum- über reihen- zur schrankbasierenden Kühlung wird die gekühlte Einheit immer kleiner.
- Regulatorische Vorgaben bezüglich der Effizienz der RZ-Kühlung sind zu beachten.
- Für die Erhaltung eines zuverlässigen Stromnetzes müssen mehr Rechenzentren auf die Fläche von Ländern wie Deutschland verteilt werden.
- Modulare RZ-Container als Edge-RZ sind flexibler erweiterbar.
Von Supercomputing lernen
Das Problem der steigenden Leistungsdichte, mit dem alle Rechenzentren zunehmend konfrontiert werden, hat es in RZs mit Supercomputern schon immer gegeben. Insofern war es interessant zu hören, über welche Erfahrungen bei der Realisierung des ersten Exascale-Supercomputers in Europa namens Jupiter Herr Eickermann vom Forschungszentrum Jülich berichten konnte. Ich fand seinen Vortrag faszinierend, zumal daraus viele Erkenntnisse über die RZ-Planung der Zukunft gewonnen werden konnten:
- Bei Exascale-Rechnern handelt es sich um solche, die z.B. mehr als 1 Exa-Flops/s unterstützen (d.h. mindestens 1018 Floating Point Operations per Second).
- Bei Jupiter als dem leistungsfähigsten bekannten Supercomputer außerhalb der USA wurde für 150 kW pro Rack geplant. Die meisten Anwesenden in der Veranstaltung gaben für die von ihnen zurzeit betriebenen RZs maximale Werte um 10 kW pro Rack an.
- Auch die Dauer der Realisierung ist aufschlussreich: Im Juni 2022 gewann Jülich den Zuschlag für das EuroHPC Exascale System. Die Planung und Realisierung von 1200 m2 IT-Fläche mit bis zu 3 Tonnen Last pro Quadratmeter dauerte dreieinhalb Jahre.
- Die Speicherkapazität von Primär-Storage beläuft sich auf über 300 Petabytes (PB) brutto und über 200 PB netto. Hinzu kommen über 350 PB für Bandspeicher.
- Das RZ wurde modular gebaut.
- Die Umwandlung von 110 kV Netzspannung erfolgt auf dem Gelände.
Vorträge der Hersteller
Die drei Server-Hersteller HPE, Dell und Cisco stellten auf der Veranstaltung ihre neuesten Produkte und Road Maps vor.
Die Vortragenden von HPE haben als Schritte der Weiterentwicklung der Server-Kühlung die folgenden technologischen Etappen genannt:
- Luftkühlung
- Flüssigkeits- und Luftkühlung (Liquid-to-air-cooling)
- Flüssigkeitskühlung (Direct Liquid Cooling, DLC) bis zum Server
- DLC ohne Ventilatoren
Anders als manch andere Hersteller hat HPE durch die 2019 abgeschlossene Übernahme von Cray eine Supercomputing-Sparte, von deren Erfahrungen auch andere Sparten profitieren können. DLC wird in einige High-End-Server von HPE eingebaut. Vorgestellt wurde das System DL380a Gen12 mit 4 Höheneinheiten (HE) und bis 25,6 kW.
Eine weitere Entwicklung, auf die HPE einging, ist die Integration von Sicherheitsfunktionen in Hardware, zum Beispiel Unterstützung von Post Quantum Cryptography (PQC).
Die Kernbotschaften des Vortrags von Dell waren die folgenden:
- Automatisierung steht im Fokus.
- HCI ist nicht mehr das Maß aller Dinge. (Anmerkung von B. Moayeri: Diese Aussage wäre zu Zeiten, in denen VMware mehrheitlich zu Dell gehörte, nicht vorstellbar gewesen. Heute gehört VMware mit ihrem vollständigen HCI-Portfolio zu Broadcom.)
- KI kann und sollte eine Infrastruktur-Insel sein. (Anmerkung von B. Moayeri: Dies ist eine wichtige Aussage. Man kann und darf nicht die ganze IT- und RZ-Planung auf KI ausrichten. Ich gehe von der zunehmenden Verbreitung hybrider Rechenzentren aus, die sich nur teilweise an Erfordernissen von KI orientieren. Meine jüngsten Gespräche mit den größten RZ-Betreibern in Deutschland bestätigen mich in meiner Meinung. Nur ein Beispiel: Große Colocation-Anbieter fangen erst mit der punktuellen und sehr begrenzten Einführung von Flüssigkeitskühlung bis zum Rack an.)
Nachdem im Oktober 2025 auf dem Roundtable Netz und Security von ComConsult die Hersteller von AIOps (KI-gestütztem IT-Betrieb) als einem wesentlichen Schwerpunkt ihrer Produktentwicklung sprachen, hat Dell auf der Veranstaltung im Februar 2026 das Gleiche über ihre Produktentwicklung ausgesagt. Unter AIOps versteht Dell u.a. folgende Funktionen:
- Analyse und Empfehlungen aus Health Checks
- Erfassung von Sicherheitsschwachstellen und entsprechende Empfehlungen
- Visualisierung von Ressourcen für virtuelle Maschinen
- Leistungsanalyse und Prognosen
- Zentrale Steuerung von Updates
Auch Produkte von Dell wurden vorgestellt, zum Beispiel das System PowerEdge M7725 mit bis 72 Knoten und bis 27.000 Cores pro Rack.
In dem von Cisco präsentierten RZ-Portfolio tauchen alte Bekannte neben relativ neuen Ankündigungen auf, u.a.:
- Cisco-eigene Switch-Produkte der Nexus-Reihe
- Cisco-eigene UCS-Server
- Management-Werkzeuge wie Intersight und Nexus Dashboard
- Cisco Hypershield als zentrale Segmentierungs- und Sicherheitslösung
- Cisco-eigene SIEM-Lösung Splunk
- Storage-Lösungen von anderen Herstellern wie NetApp, Pure, Hitachi und Nutanix
- Kubernetes Engines von anderen Herstellern wie Red Hat
Auf die vielen alten und neuen Mitglieder der UCS-Serverfamilie können wir an dieser Stelle nicht eingehen. Für mich war die Erkenntnis wichtig, dass Cisco vor siebzehn Jahren in den Servermarkt eingestiegen ist, um dort zu bleiben – trotz der geringen Verbreitung im Vergleich zu Herstellern wie HPE und Dell.
Visionäres
Die an Visionärem interessierten Teilnehmer kamen mit dem Vortrag von Dr. Amin Shokrollahi, Gründer und CTO von Kandou AI und Professor an der ETH Lausanne (EPFL), auf ihre Kosten. Der Redner stellte die These auf, dass KI so ziemlich alles im Rechenzentrum auf den Kopf stellt. Seine Beschreibung von KI-Servern: Verteiltes Beschleunigungssystem mit massivem Speicher. Daraus folgen Implikationen für Energieverbrauch, Latenz und Kosten. Seine Kernthesen:
- Der Server der Zukunft ist ein verteiltes Beschleunigungssystem.
- Das Interconnect ist ein dominanter Energieverbraucher und muss massiv verbessert werden.
- Die Organisation des Speichers muss grundlegend überdacht werden.
Dr. Shokrollahi führte seine Überlegungen anhand eines Systems mit 1.600 Racks und 50.000 GPUs aus, im Prinzip ein Exascale-Prozessor.
In einem solchen System wird ein Drittel der Energie laut Shokrollahi für Kommunikation benötigt. Shokrollahi geht davon aus, dass die Kommunikation schneller und günstiger gemacht werden muss. Wie? Und hier horchte ich auf, als er davon sprach, dass die Industrie im Moment nur 1/450 der Kapazität nutzt, die laut dem legendären Claude Shannon die in Rechenzentren genutzten Übertragungsmedien bieten.
Der Weg ist somit vorgezeichnet und ähnelt dem, über den man mit intelligenter und effizienter Kodierung immer mehr aus Kupferkabeln rausgeholt hat, die für Ethernet und DSL genutzt werden. Das Ziel sind schnelle und energetisch günstige Interconnects. Hier besann sich Shokrollahi auf ein Feld, auf dem er lange Jahre tätig war: das Feld der Informationstheorie.
Open Compute Project
Der Vortrag meiner Kollegen Dr. Ermes und Dr. Rüßmann zum Open Compute Project (OCP) rundete die Veranstaltung ab. Kern von OCP ist Open Source Hardware, und zwar in den Bereichen Server, Storage, Racks, Netz und RZ. Das Projekt hat Stand heute über 500 Mitglieder, darunter:
- Hyperscaler wie Microsoft und Google
- Colocation- Anbieter
- RZ-Infrastruktur-Lieferanten wie Rittal
- Netzhersteller wie Cisco und HPE
Interessant war die Aussage, dass man durch das Weglassen des klassischen Servergehäuses die Kühlung und damit den Energieverbrauch effizienter machen kann – Stichwort Open Rack Layout.
Fazit
Die Take-aways am Ende waren die folgenden:
- OCP ist aus dem Nischendasein raus.
- Offene Hardware wird strategisch relevant. (Anmerkung von B. Moayeri: Schauen Sie sich auch diese Veranstaltung an, die sich mit digitaler Souveränität befasst: https://www.comconsult.com/digitale-souveraenitaet-wege-zu-unabhaengigkeit-und-sicherheit/).
- Wer KI groß betreibt, muss auch die Infrastruktur neu denken.




