- Mitglied seit
- 09. Jul 2021
- Beiträge
- 4
- Punkte für Reaktionen
- 0
- Punkte
- 1
bei 8 Sata HDDs (Raid5) und einer iSCSI Anbindung über 2 dedizierte Nics in eigenen Subnetzen, werden pro Pfad maximal 50MB/s transferiert. Wenn das System auf 3 Nics, mit resultierend 3 MPIO Pfaden, erweitert wird, wird pro Pfad nur 33MB/s transferiert. Wenn zwischen ESXi und Syno nur ein Pfad konfiguriert wird, transferiert dieser ca. 100MB/s. Auf Syno Seite ist das Target auf nic2 und nic3 gebunden, ESXi seitig aufgrund der dedizierten Subnetze keine PortBindung auf Kernel-Ebene.
Kein Bond auf Syno-Seite. JumboFrames durchgehend aktiv. Ein vmkping -d -s 8800 auf die Syno Target Nics geht erfolgreich durch.
Kann es sein, dass die 4 Gigabit Nics der Syno auf der Backplane auf einen Gigabit-Port gebündelt werden? Auch der Test, durch eine zweite iSCSI LUN zusätzliche Bandbreite zu generieren, schlägt fehl. Auch dann werden von jeder Lun nur ca 50MB/s, also in Summe wieder 100MB/s verarbeitet. Das RoundRobin IO auf 1 zu reduzieren, hat keinen merklichen Effekt.
Der Test:
Von einer VM, die auf einem lokalen Datastore eines ESXi liegt und eine weitere vHDD (vmdk und rawdevice getestet) auf dem Synology liegen hat, wird eine 4GB Datei von C: nach D: kopiert und wieder zurück. Die Leistungsdaten des Explorers können mit esxtop nachvollzogen werden, ebenso die gleichmäßige Verteilung der Last auf die beiden iSCSI Nics. Über die Synology GUI kann man sehen, dass nic2 und nic3 auch entsprechend gleichmäßig belastet sind, aber nie mehr als ca 50% oder bei 3 Pfaden jeweils nicht mehr als ca 33%.
Der local DS des ESXi ist vollFlash, sollte also in diesem Szenario keine Rolle spielen.
Wo liegt der Hund begraben?
Kein Bond auf Syno-Seite. JumboFrames durchgehend aktiv. Ein vmkping -d -s 8800 auf die Syno Target Nics geht erfolgreich durch.
Kann es sein, dass die 4 Gigabit Nics der Syno auf der Backplane auf einen Gigabit-Port gebündelt werden? Auch der Test, durch eine zweite iSCSI LUN zusätzliche Bandbreite zu generieren, schlägt fehl. Auch dann werden von jeder Lun nur ca 50MB/s, also in Summe wieder 100MB/s verarbeitet. Das RoundRobin IO auf 1 zu reduzieren, hat keinen merklichen Effekt.
Der Test:
Von einer VM, die auf einem lokalen Datastore eines ESXi liegt und eine weitere vHDD (vmdk und rawdevice getestet) auf dem Synology liegen hat, wird eine 4GB Datei von C: nach D: kopiert und wieder zurück. Die Leistungsdaten des Explorers können mit esxtop nachvollzogen werden, ebenso die gleichmäßige Verteilung der Last auf die beiden iSCSI Nics. Über die Synology GUI kann man sehen, dass nic2 und nic3 auch entsprechend gleichmäßig belastet sind, aber nie mehr als ca 50% oder bei 3 Pfaden jeweils nicht mehr als ca 33%.
Der local DS des ESXi ist vollFlash, sollte also in diesem Szenario keine Rolle spielen.
Wo liegt der Hund begraben?