Unser Hyper-V Powerkurs in neuem Design. - Hyper-V Server Blog

Unser Hyper-V Powerkurs in neuem Design.

IMG_0275Wir betreiben unsere Hyper-V Schulung mit dem Namen Hyper-V Powerkurs nun schon einige Jahre.

Angefangen haben wir mit Hyper-V unter Windows Server 2008 R2 im Jahr 2011. Seitdem haben wir den Kurs mehrfach erweitert, die großen Änderungen sind natürlich die Updates auf Windows Server 2012 und danach auf Windows Server 2012 R2. Im Laufe der Zeit hat sich selbstverständlich nicht nur der Kurs in Form der Themen geändert, sondern es ist auch neue und erweiterte Hardware hinzugekommen. Angefangen haben wir damals mit acht Schulungssystemen, die ich hier im Blog ja bereits mehrfach beschrieben habe.

Später hinzugekommen sind vier weitere Systeme, somit haben wir aktuell die Möglichkeit unsere Schulung mit bis zu zwölf Teilnehmern bei uns im Hause durchzuführen.

Die Hardware in den Anfängen

IMG_0291Die Rechner hatten von Anfang an einen Vier-Kern-Prozessor, 24 GB Arbeitsspeicher, drei SSDs und sechs 1GbE Ports. Die Anbindung erfolgte per Gigabit Ethernet-Verbindung, als Storage wurde eine NetApp 6040 als iSCSI-Storage genutzt. In diesem Aufbau haben wir im Laufe der fünf Tage mit jeweils zwei oder drei Teilnehmern, je nachdem ob wir eine gerade oder ungerade Anzahl an Teilnehmern hatten, ein Failover Cluster aufgebaut. Jedes Failover Cluster hatte mehrere iSCSI LUNs, die als Quorum und als CSV-Datenträger genutzt wurden.

Weg mit iSCSI, herbei mit SMB3

IMG_4136Mit dem Release von Windows Server 2012 und der Einführung von SMB3 haben wir dann über einen längeren Zeitraum überlegt, in welcher Form wir den Storage für unsere Failover Cluster anbinden. IMG_4137Nach einem Update der NetApp-Firmware war auch die Nutzung von SMB3 möglich, allerdings nicht mit allen Funktionen und Möglichkeiten. Neben dieser Überlegung hatten wir den zusätzlichen Wunsch, dass die Geschwindigkeit im Storage-Netzwerk auf 10 GbE angehoben wird.

IMG_0280Unser Anspruch an den Kurs ist ein möglichst realistisches und optimiertes Szenario zeigen zu können. Da zu diesem Zeitpunkt schon einige Kunden mit 10 Gb/s gearbeitet haben oder eine Migration auf diese Geschwindigkeit andachten, mussten wir an dieser Stelle ebenfalls optimieren. Aus diesem Grund haben wir in jedes der Systeme eine Intel X540-T2 NIC eingebaut. Diese Dual-Port-Karte bietet zwei 10 GbE Ports, somit standen für jeden Rechner eine Bandbreite von 2x 10 Gb/s plus 6x 1 Gb/s zur Verfügung.IMG_4144 

Mit Hilfe von teilweise bis zu 30m langen Cat6a – Kabeln haben wir die PCs dann an zwei 24-Port 10 Gb/s-Switches angebunden. Für alle Rechner zusammen hätte auch eine Switch ausgereicht, dann hätten wir allerdings keine weiteren Systeme (Storage, AD-Controller, Dateiserver) mehr einbinden können. Somit also direkt zwei, so lässt sich auch eine Redundanz über beide Geräte zeigen und konfigurieren. Da 10 GbE-Switches jedoch recht laut sind, wurde ein Teil vom kompletten Schulungsraum abgetrennt und isoliert. Und da wir schon dabei waren, haben wir auch direkt den restlichen Schulungsraum gepimpt. Begonnen bei der Ausstattung mit neuen, eigens für unsere speziellen Bedürfnisse vom Schreiner angepassten Tische. IMG_0272IMG_0270Nun hat jeder Teilnehmer ausreichend Platz zum arbeiten und lernen, jeweils eine Steckdose auf dem Tisch — für das Handyladergerät oder ein Notebook-Netzteil. Zusätzlich hat jeder sein eigenes Schulungssystem (Monitor, Maus und Tastatur, der eigentliche PC steht unterm Tisch). Nachdem wir sowohl unseren Schulungsraum als auch die PCs aufgerüstet haben, war der Storage an der Reihe.

IMG_4142Da wir ja bereits seit Windows Server 2012 auf den Scale-Out File Server setzen war ziemlich schnell klar, dass wir solch einen Aufbau ebenfalls in unsere Schulung aufnehmen. Wir haben zwei Server und ein JBOD mit Festplatten angeschafft; welches nun während des Kurses gemeinsam mit den Teilnehmern direkt ab Neuinstallation eingerichtet und installiert wird.

Nach der Einrichtung, die meist gegen Mitte der Woche stattfindet, wird dieses System für den restlichen Kurs als hochverfügbarer Speicher genutzt. Die Server hatten zum damaligen Zeitpunkt ebenfalls jeweils eine Intel X540-T2 NIC, zwei 1 GbE NICs und einen Quad

-Port-SAS HBA zur Anbindung des JBODs. In dem JBOD befanden sich 15x 1TB große NLSAS Festplatten. Mit diesem Aufbau haben wir schon einige Kurse durchgeführt.

IMG_0265Bereits in der Preview-Phase von Windows Server 2012 R2 haben wir unseren Kurs auf die Version 3 geupdatet und die Neuerungen mit aufgenommen, die gegenüber des ersten Releases eingebracht wurden. Zu diesem Zeitpunkt hat sich an der Ausstattung der PC-Hardware nicht viel geändert (Ein Mainboard ist kaputt gegangen und musste getauscht werden; außerdem haben wir vier 1GbE in Form einer Quad-Port-Karte ausgebaut, da wir diese in unserer aktuellen Konfiguration nicht mehr benötigen); da die Voraussetzungen nahezu die gleichen sind. Was sich allerdings geändert hat, ist die Ausstattung unseres JBODs. Da mit Windows Server 2012 R2 die Mischung von SSDs und HDDs zur Steigerung der Performance eingeführt wurde (Tiering), haben wir unseren Scale-Out File Server um insgesamt fünf 200 GB große SAS SSDs erweitert.

Die Einführung von RDMA

IMG_0287Da wir bereits in der Preview-Phase von Windows Server 2016 sind und vermutlich in den kommenden Monaten unseren Hyper-V Powerkurs auf seine vierte Version updaten, haben wir erneut eine Anpassung der Hardware vorgenommen. Jedes Schulungssystem hat eine weitere NIC bekommen: Eine Dual-Port 10 GbE Netzwerkkarte von Emulex, welche unter Anderem RDMA (Remote Direct Memory Access) beherrscht. Dank dieser Technik haben wir die Möglichkeit Daten zwischen den Hyper-V Hosts und dem Scale-Out File Server performant, mit einer sehr geringen Latenz und ohne eine Belastung der CPU zu übertragen. Diese Eigenschaften machen sich übrigens auch bei einer Migration von VMs zwischen den Hosts positiv bemerkbar.

Für alle, die gerne mehr technische Details zu den Karten haben möchten:

Es handelt sich um die Karte OCE14102-NT von Emulex, der Hersteller listet die Karte hier auf. Die Karte unterstützt RDMA in der RoCE (RDMA over Converged Ethernet) – Variante, weitere hilfreiche Features sind: Unterstützung von dVMQ, VLAN-Support (was übrigens Pflicht bei der Nutzung von RDMA ist), bis zu 512 Hardware Queues, SR-IOV mit bis zu 63 VF (Virtual Functions) und noch einiges mehr. Für uns von Vorteil ist, dass die Karte (so wie die Intel-Karten auch) mit Kupferkabeln verarbeitet sind und wir so die vorhandene Verkabelung nicht austauschen müssen.

Die Karte selbst wird bei der Installation des Windows Server nicht direkt vollständig mit Treibern ausgestattet, sondern es müssen die Emulex-Treiber in der aktuellen Version noch eingespielt werden. Nach der Installation stehen alle Funktionen und Konfigurationsmöglichkeiten zur Verfügung, die Erweiterungen seitens Emulex in den Eigenschaften der Karte machen einen sehr aufgeräumten Eindruck, so dass die gewünschten Einstellungen schnell gefunden werden.

Zukunftssicher auch mit Windows Server 2016

Wir arbeiten bereits in unserer eigenen Test-Umgebung mit der Preview-Version des Windows Server 2016, teilweise haben wir auch schon Präsentationen gehalten (z.B. auf unserem System Center Universe Satellite-Event im Juni haben Carsten und ich über die Neuerungen in WS2016 gesprochen), bei dem die Preview-Version zum Einsatz kam. Sobald wir unseren Kurs auf eine neue Version und somit dem Thema Hyper-V unter Windows Server 2016 aktualisieren, sind unsere Schulungsrechner schon perfekt ausgestattet. Für jeden Rechner stehen insgesamt 42 Gb/s zur Verfügung: 2x 1 Gb/s, 2x 10 Gb/s non-RDMA und 2x 10 Gb/s RDMA.

Mehr Informationen zu unserem Hyper-V Powerkurs gibt es auf unserer neu gestalteten Kurs-Webseite www.powerkurs.net:

PK-Webseite blog

Jan Kappen
 

Jan Kappen ist ausgebildeter Fachinformatiker in der Richtung Systemintegration. Er hat seine Ausbildung im Sommer 2008 abgeschlossen und arbeitete bis August 2018 bei der Rachfahl IT-Solutions GmbH & Co. KG. Seit September 2018 arbeitet er als Senior Netzwerk- und Systemadministrator bei einem großen mittelständischen Unternehmen im schönen Sauerland. Jan Kappen ist unter anderen MCITP Server Administrator, Enterprise Administrator und Enterprise Messaging Administrator 2010 sowie MCTS für System Center Virtual Machine Manager 2008, Windows Server 2008 Active Directory, Windows Server Virtualization und Windows Server 2008 Network Infrastructure. Seit 2015 wird Jan Kappen im Bereich "File System Storage" bzw. "Cloud & Datacenter Management" für seine Expertise und seine Community-Arbeit mit dem MVP Award von Microsoft ausgezeichnet.

  • Tomas Franke sagt:

    Hi,

    ich finde es total super, dass Ihr immer mit der Zeit geht und eine moderne Ausstattung bietet. So stellt man sich einen Trainigsraum vor!

    Echt klasse…

    Könnt Ihr vielleicht noch mal sagen, was Ihr nun für PC konfigurationen einsetzt?
    Wäre interessant, da ich ein neues „Test/Spiel-System“ ausbauen möchte…

    Danke,

    Gruß
    Tomas

  • Jan Kappen sagt:

    Hallo Tomas,
    unser Grundsystem ist in zwei Beiträgen beschrieben: https://www.hyper-v-server.de/hypervisor/empfehlung-unser-hyper-v-schulungs-system/ und https://www.hyper-v-server.de/hypervisor/unser-hyper-v-schulungs-system-in-der-aktuellen-version/
    An den Grund-Systemen hat sich bisher nichts geändert, da CPU und RAM bisher nicht die begrenzenden Faktoren sind in unserem Kurs.
    Gruß, Jan

  • Chris sagt:

    Hallo,

    Wir haben gerade einen Fall bei einem Kunden wo ein SQL, TS, SBS sowie ein Scan Server ( Virtualisiert ) im Einsatz sind und es massive performace Probleme gibt ( Kunde wird Ende des Jahres von uns übernommen)
    Nun wollten wir auch auf einen Scale out Fileserver setzen ( speziell wegen des relativ einfachen handlings und Auto-Tiering ) nach längeren Gesprächen mit der Wortmann AG wurde uns aber empfohlen ein SAN zu nehmen da es mit dem Scale out FS immer wieder probleme mit SQL gab ( eigenen Erfahrung der Wortmann ).
    Könnt ihr das bestätigen ?
    Wir stehen nun vor der Anschaffung einen 10gb iScsi SAN mit oder ohne auto-tierung

  • Jan Kappen sagt:

    Hi,
    ohne die Umgebung zu kennen: Ich würde die Systeme alle virtuell betreiben. Hier haben wir keine Probleme und mit einer vernünftigen Konfiguration der Hardware eine extrem gute Performance. Ich bevorzuge SMB3 deutlich gegenüber iSCSI, vor allem in Hinblick, was sich dort alles weiterhin tun wird in Zukunft.
    Gruß, Jan

  • >