Netzzugang zu Public Clouds

Unternehmen nutzen Public Clouds immer stärker. Dieser Beitrag befasst sich mit dem Netzzugang zu Public Clouds.

Verteilter Storage erhält Einzug in reguläre Rechenzentren

Verteilter Storage erhält Einzug in reguläre Rechenzentren

Verteilte Dateisysteme, einst eine Nischenlösung für High-Performance Systeme und Supercomputer, finden immer häufiger auch im „normalen“ Rechenzentrum Anwendung. Durch die hohe Leistung moderner CPUs können die ursprünglich als rechenintensiv geltenden Aufgaben eines verteilten Dateisystems als Bestandteil einer Virtualisierungslösung implementiert werden.

100Gigabit Ethernet wird erschwinglich

100Gigabit Ethernet wird erschwinglich

Die Preise für 100Gigabit Ethernet sind in den letzten Jahren auf ein Niveau gesunken, das die Implementierung von 100Gigabit Ethernet in einer steigenden Zahl von Rechenzentren erschwinglich macht. Zum Beispiel beträgt der Listenpreis eines 36-Port-Moduls für Cisco Nexus 9500 unter 36.000 US-Dollar.

Co-Location als Trend

Co-Location als Trend

Immer mehr Unternehmen benötigen eine möglichst hohe Flexibilität beim Zugang zu öffentlichen Clouds. Nicht selten setzen sich Unternehmen zum Ziel, in Zukunft zu relativ geringen Kosten und in relativ kurzer Zeit zwischen großen Public Clouds von Amazon, Google, Microsoft und anderen Anbietern wechseln zu können. Die Verteilung der Last auf verschiedene Public Clouds ist eine weitere Anforderung von Unternehmen.

NVMe ist da!

NVMe für höhere I/O-Leistung

Die Speichertechnologie Non-Volatile Memory Express (NVMe) bietet im Vergleich zur weit verbreiteten SSD-Technologie (Solid State Drive) noch höhere Leistung für Input/Output (I/O). Anders als die meisten bisherigen Speichersysteme, die für die Anbindung Schnittstellen wie SATA und SAS verwenden, wird für NVMe die Schnittstelle PCI Express genutzt.