RS1221+ VMware ESXi MPIO RoundRobin nur max 100MB/s

conrad.fuchs

Benutzer
Mitglied seit
09. Jul 2021
Beiträge
4
Punkte für Reaktionen
0
Punkte
1
bei 8 Sata HDDs (Raid5) und einer iSCSI Anbindung über 2 dedizierte Nics in eigenen Subnetzen, werden pro Pfad maximal 50MB/s transferiert. Wenn das System auf 3 Nics, mit resultierend 3 MPIO Pfaden, erweitert wird, wird pro Pfad nur 33MB/s transferiert. Wenn zwischen ESXi und Syno nur ein Pfad konfiguriert wird, transferiert dieser ca. 100MB/s. Auf Syno Seite ist das Target auf nic2 und nic3 gebunden, ESXi seitig aufgrund der dedizierten Subnetze keine PortBindung auf Kernel-Ebene.

Kein Bond auf Syno-Seite. JumboFrames durchgehend aktiv. Ein vmkping -d -s 8800 auf die Syno Target Nics geht erfolgreich durch.

Kann es sein, dass die 4 Gigabit Nics der Syno auf der Backplane auf einen Gigabit-Port gebündelt werden? Auch der Test, durch eine zweite iSCSI LUN zusätzliche Bandbreite zu generieren, schlägt fehl. Auch dann werden von jeder Lun nur ca 50MB/s, also in Summe wieder 100MB/s verarbeitet. Das RoundRobin IO auf 1 zu reduzieren, hat keinen merklichen Effekt.

Der Test:
Von einer VM, die auf einem lokalen Datastore eines ESXi liegt und eine weitere vHDD (vmdk und rawdevice getestet) auf dem Synology liegen hat, wird eine 4GB Datei von C: nach D: kopiert und wieder zurück. Die Leistungsdaten des Explorers können mit esxtop nachvollzogen werden, ebenso die gleichmäßige Verteilung der Last auf die beiden iSCSI Nics. Über die Synology GUI kann man sehen, dass nic2 und nic3 auch entsprechend gleichmäßig belastet sind, aber nie mehr als ca 50% oder bei 3 Pfaden jeweils nicht mehr als ca 33%.

Der local DS des ESXi ist vollFlash, sollte also in diesem Szenario keine Rolle spielen.

Wo liegt der Hund begraben?
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
evtl. bei den Platten und RAID5. Du hast gemessen, ob die überhaupt den Durchsatz bringen? RAID 10 ist schneller. Checke auf der DS nicht nur die NIC Auslastung sondern auch die des Volumes.
 

faxxe

Benutzer
Mitglied seit
22. Nov 2007
Beiträge
228
Punkte für Reaktionen
56
Punkte
34

conrad.fuchs

Benutzer
Mitglied seit
09. Jul 2021
Beiträge
4
Punkte für Reaktionen
0
Punkte
1
Aber dann würden ja auch keine Bonds funktionieren, oder?
Ja, so sehe ich das auch. Ein Bond ermöglicht mehrere parallele Streams und aggregiert somit mehrere Gigabit-Ressourcen (mit oder ohne lacp trunk am switch). Ein VMware MPIO stellt pro Pfad aber auch einen isolierten Stream dar, sodass das Target aus verschiedenen Subnetzen pro Nic angesprochen wird.
Wenn das beobachtete Verhalten eine Eigenheit der 1221+ wäre, würde das nicht sehr für das Produkt sprechen.

Gibt es hier keine User, die eine 1221+ über iSCSI an eine VMware angebunden haben?

So oder so beschränkt sich die Thematik auf den Netzwerk-Stack zwischen ESXi und Synology. Eine 1221+ mit 10GbE Karte ermöglicht beim gleichen Test 280MB/s und mehr, was m.E.n. eher der Leistung des Platten-Stacks entspricht.

Aber warum die 1GbE Lösung derart lahmt, keinen blassen Schimmer.
 

conrad.fuchs

Benutzer
Mitglied seit
09. Jul 2021
Beiträge
4
Punkte für Reaktionen
0
Punkte
1

Vielen dank für den link! Aber so wie ich das lese, testet der Kollege lediglich die interne Performance der Syno LUN read/write mit einem Benchmark tool. Wenn ich das mache, erreiche ich auch weitaus höhere Werte.

Problematisch ist wirklich der Durchsatz der iSCSI Verbindungen, also Nics ESXi -> LAN-Kabel -> Nics Synology. Also wenn Dateien zwischen interner ESXi und Syno LUN transferiert werden.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat