10G Durchsatz nicht Zu niedrig?

Status
Für weitere Antworten geschlossen.

Kurt-oe1kyw

Benutzer
Sehr erfahren
Mitglied seit
10. Mai 2015
Beiträge
9.139
Punkte für Reaktionen
1.798
Punkte
314
ergänzend noch als Hinweis zu Fusion, bitte bei den Mainboard Spec auch genau nachsehen ob sich nicht irgendwelche Steckplätze die Lanes teilen, das führt dann auch zur Reduktion der eigentlichen Geschwindigkeit.
Speziell bei den meisten nicht ganz aktuellen boards daher unbedingt im Handbuch nachsehen welche Schnittstellen sich u.U. die Verbindungen "teilen". Bei SATA war es zum Teil sogar so, das bei Verwendung vom Anschluss "X", der andere Anschluss "Y" dann gar nicht mehr zu Verfügung stand, usw.
Bei den ganzen aktuellen boards X5xx sollte das allerdings kein Problem mehr darstellen, da die Anbindungen zu den einzelnen Schnittstellen im Normalfall jeweils zu 100% zur Verfügung stehen, ohne Einschränkungen. ABER trotzdem auch hier dann genau nachlesen.
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
Hab das Ganze nun mal mit einer SATA SSD im NAS getestet. Volumen angelegt und per Drag&Drop vom Windows 10 Rechner (Evo970 Plus NVME) aufs NAS gezogen. Läuft über keinen Switch sondern direkt verbunden über die Netzwerkdose (Patchfeld) auf die 1618+) Das kann doch nicht sein!
Er startete bei 650 MBs und fiel ab auf die ca. 50MBs.
Unbenannt.JPG
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
Was für eine SATA-SSD? Die können teilweise ja auch nur einige GB im Burst schreiben und brechen dann ein, wobei zugegeben 50MB/s dann doch arg langsam ist für sequentielles write (hätte da eher Richtung 100-200MB/s getippt, auch bei "schlechteren" SSD).

CPU/RAM/Disk-I/O/Volume Auslastung auf PC und NAS ist "gelangweilt"?
Die restlichen 80% der Datei wurden dann konstant mit 50MB/s übertragen?
 

Synchrotron

Benutzer
Sehr erfahren
Mitglied seit
13. Jul 2019
Beiträge
5.104
Punkte für Reaktionen
2.069
Punkte
259
Meine Vermutung: Bei den 650MB/s zu Beginn wurde zuerst irgend ein schneller Zwischenspeicher voll geschrieben (freier RAM der Syno ?). Als der voll war, ging die Geschwindigkeit auf den tatsächlichen Wert runter. 50MB/s - da klemmt was.
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
So die SSD ist folgende:
Bildschirmfoto 2020-04-19 um 13.21.20.jpg
Hier die heutige Auslastung:
Bildschirmfoto 2020-04-19 um 13.23.09.jpg
Sollte hier das Volumen bzw. der Datenträger nicht mehr ausgelastet sein?
 

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.104
Punkte
248
Hast Du mal - unabhängig vom NAS - mit nem anderen Gerät getestet (non-syno - selbst wenn's nur "flotte HDD zu flotte HDD" ist)? Alternativ kannste auch mal ordentlich was mit "iperf" durchballern (gibt's eigentlich für alle Betriebssysteme) und schauen was die Werte da so sagen. Ansonsten kann man ggf. auch nochmal schauen, ob es irgendwelche Leitungsfehler gibt... wenn zuviele Pakete verkrüppelt durch die Gegend rauschen, schmälert das die Bandbreite natürlich auch ungemein, da alles neu geschickt werden muss bei einer Übertragung via TCP :)
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
Wie meinst du das ohne Syno testen? Ich habe keinen anderen Netzwerkspeicher!
Ich teste das mal mit dem iperf einmal zum RAID 5 mit den Festplatten und einmal zur SSD mal sehen was dabei rauskommt.
Leitungsfehler glaube ich nicht da ich normalerweise mit den HDDs auf ne Geschwindigkeit von 380MBs komme, was zwar auch wenig ist, warum auch immer ABER deutlich mehr als bei der SSD. Die Rechner bzw. das Syno hat ne Direktverbindung zum Rechner (ASUS XG C100C). Hat das evtl. damit zu tun das ich die SSD lange Zeit als SSD Cache benutzt habe? Eigentlich ja nicht, aber ich erwähne es mal. Der Fehler wird sicher im Detail liegen.
 

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.104
Punkte
248
Prinzipiell geht es ja erstmal darum die Gegebenheiten zu prüfen, einmal Netzwerkdurchsatz (ohne Storage-Nutzung), einmal den Durchsatz der SSD (intern), somit hast Du dann erstmal die maximal verfügbaren Werte. Was dann effektiv wirklich geht, kommt dann natürlich auch wieder auf die Art der Nutzung an bzw. beim kopieren auch wieder auf die Daten (viele kleine Dateien, wenige große Dateien). Die SSD selbst ist hier mitunter eben auch nochmal ein wesentlicher Faktor, ein gutes Beispiel hier wären die M.2-SSDs, welche dann gerne auch zu heiss werden und dann einfach runterdrosseln... Hier noch ein Testbericht zur 850 EVO:

https://www.hardwareluxx.de/index.php/artikel/hardware/storage/38625-samsung-ssd-850-evo-mit-neuem-48-layer-3d-nand-im-test.html
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
Ich versuche mein bestes. Muss mich nun erstmal mit iperf befassen so einfach scheint mir das nicht. Ich werde das NAS (als iperf Server)n laufen lassen, muss mir noch das Docker Image ziehen dann ist das schonmal erledigt. Im Anschluss werde ich iperf auf den Windows PC installieren und dann über diesen Client testen. Eine andere Möglichkeit habe ich nicht! Die Samsung sollte laut Test ja 420MBs bringen wovon ich weit entfernt bin. Ich könnte mir vorstellen das das Ganze wieder irgendwas mit dem Win10 zu tun hat.! Für die Aquantia Karte gibt es ja noch ein neues FW Update + Treiber. Evtl. liegt es auch daran. Ich teste das die Tage so gut es mir möglich ist.

EDIT: Wie definiere ich das bei iperf wenn ich das NAS anpinge ob er auf die Platten schreibt oder auf das Volume der SSD?
 

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.104
Punkte
248
https://de.wikipedia.org/wiki/Iperf

iperf ist NICHT dazu da, irgendwelche Festplattengeschwindigkeiten zu messen, es geht dabei ausschliesslich um die Netzwerkgeschwindigkeit. HDD/SSD dann mit hdparm o.ä. Tools...

Btw... die Werte für 4k lesen hast Du dem Testbericht aber schon entnommen und Dir nicht nur die erste Seite angeschaut, oder? Auch ruhig mal Testberichte zur eingesetzten Hardware lesen und nicht immer nur das glauben, was die Hersteller so lapidar als "beste Werte" raushauen. Ist wie mit den M.2-SSDs.. sicherlich... 3500MB/s, kein Thema, aber nur WENN... (und dann gehts los ;)).

Firmware-Updates sind mit Sicherheit auch eine gute Sache, aber auch hier gilt: vorher LESEN und zwar nicht nur das vom Hersteller, sondern auch entsprechende Erfahrungsberichte dazu, nicht, dass irgendwas verschlimmbessert wird :)
 

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
3.017
Punkte für Reaktionen
428
Punkte
149
Ich habe bei mir 2 ASUS XG C100C im Einsatz und komme mit den Linux Standard Treiber (Kernel 5.3) auf 970 MByte/s beim FTP und großen Files. Firmware ist noch die gleiche wie beim Kauf von vor über einem Jahr.
Damit glaube ich nicht, dass die Karte limitiert.
 

mb01

Benutzer
Mitglied seit
13. Mrz 2016
Beiträge
485
Punkte für Reaktionen
56
Punkte
28
... mit iPerf kann man die Netzwerkgeschwindigkeit bestimmen, was sich auch hilfreich ist, um das Netzwerk als Fehlerquelle auszuschließen. Bei 10 GbE gibt´s da ja einiges mehr zu beachten als bei 1GbE. Soll nicht heißen, dass man immer selbst viel herumdoktern muss, aber irgendwann muss man halt per Ausschlußverfahren alles checken. Für einen ersten Performance-Check braucht man aber nicht unbedingt iPerf ... ein Benchmark wie Crystaldiskmark auf eine Freigabe der DS tut es auch, wenn man die Testdatengröße um einiges kleiner als die RAM-Größe der Diskstation hält, denn dann läuft das Meiste über den Cache der Diskstation.

... auf dem NAS ist beim Testen immer der parallele Blick auf den Ressourcenmonitor hilfreich, z.B. neben CPU und Co auch wie es um die Auslastung der Volumen und auch der einzelnen Datenträgern steht. Gibt zumindest manchmal einen Anhaltspunkt, in welcher Richtung das Problem liegen kann.

... oh, noch ein ganz heißes Thema: Sind deine WD60EFAX sehr neu? Dann google mal nach Thema "SMR / Shingled Magnetic Recording" bei WD Red Festplatten im Bereich von 2 - 6 TB ... gibt´s hier IIRC auch irgendwo nen Thread für. Erklärt nicht die schlechte Performance mit der SSD, aber ist leider auch ein potentiell relevantes Thema.

PS: Ganz ausschließen würde ich den PC als Fehlerquelle auch nie. Hab selbst die "spaßige" Situation, dass mein im letzten Herbst gekauftes ASUS-X570-Board meine Mellanox Connectx-3 nicht erkennt ... gar nicht, nada, auch mit neuestem Bios ... welche vorher im alten Intel-System einwandfrei lief. Immerhin erkennt das X570 noch die Mellanox Connectx-2, die ich vorher im Einsatz hatte.
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
Danke Dir für deinen Beitrag zum Thema. Ja meine sind die WD60EFAX mit wie nun zum Vorschein kam SMR! Hier muss man mal abwarten wie sich WD dazu noch stellt, ob es vielleicht einen Austausch geben wird. Da damals überall von CMR die Rede war und ich die Platten auch auf Grundlage dessen gekauft habe. In den Datenblättern findet sich ja keinerlei Angabe dazu. Auch ist mir unklar warum man solch eine Technologie bei NAS-System bzw. für NAS Systeme anbietet. Ist ja davon auszugehen das es hohe Schreibleistung gibt bei diesem Einsatzzweck. Wie gesagt mal abwarten....

Ich bin am Wochenende erst wieder zuhause und kann dann da weiter testen. Evtl. liegt es auch am kürzlichen, wieder einmal, fehlerhaften Update von MS. Ich werden das Ganze mal mit CrystalDiskMark/iPerf3 testen und im Anschluss die Treiber Updaten und die FW updaten. Mal sehen was dann passiert. Werden hier dann wieder die Ergebnisse posten.
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
ASUS XG C100C FW: von 3.0.33 auf 3.1.109 geflasht und aktuellsten Aquantia Treiber installiert 2.1.21!

Hab das Docker Image von networkstatic/iperf3 installiert und nach dieser Anleitung den Container gestartet:
Instructions to run IPERF3 in Synology Docker Container

I had to troubleshoot a network performance issue and needed a place to run iperf3. A quick search turned up a few examples of people using their Synology NAS units. Those links all led to instructions that required SSH access to the Synology unit. I wanted a solution that didn't require SSH as I typically keep it turned off on my devices.

The solution below allows a user to setup an iperf3 server on a Synology NAS using only the DSM GUI.

(See images in the repo for actual configuration screen captures)

Steps (assumes you have Docker already installed)

Open Docker application go to the registry and search for iperf3.
Download the official container which should be on the top of the list labeled as networkstatic/iperf3.
Go the the Image tab and confirm the container is downloading.
Once downloading is complete, select the iperf3 image and click the launch button.
You should now be on the General Settings tab. Click the Enable Resource Limitations check box and enable High CPU Priority and allocate 4096 of memory. Then click Apply
Under Advanced Settings, click on Port Mapping tab and add two lines to forward port 5201 UDP + TCP then click Apply
Under Advanced Settings, click on Environment tab and add the following Exection Command: networkstatic/iperf3 -s then click Apply

Run your container and you should now be able to reach the iperf3 server from an iperf3 client.

Wie funktioniert das nun von Client Seite? Hier habe ich die iPerf3.exe runtergeladen und auf c:/ gelegt. cmd als Administrator gestartet und folgende Zeile eingegeben **c:/iperf3.exe -c 10.10.10.2**
Daraufhin erhalte ich **unable to connect server** was mache ich falsch?
 
Zuletzt bearbeitet:

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
Nun hat es geklappt:

Habe es zum einen mit meiner 1GBE Schnittstelle versucht und folgende Werte erreicht

1gbe.JPG

Zum anderen mit meiner 10 GBE Direktverbindung:

10gbe.JPG

Wo liegt nun der Fehler?
Die 1GBE Schnittstelle wie ich es als Laie interpretiere ist auch nicht so TOP von den Werten richtig? Aber die 10 GBE ist ja massivst schlecht. Warum den das? Das Kabel vom Patchfeld zur NAS ist sogar Cat. 8 ebenso von der Dose zum Rechner!
 
Zuletzt bearbeitet:

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.104
Punkte
248
Also bei mir schwankt das Ergebnis zwischen 9.88 und 9,92 Gbits/sec zwischen 2 Storage-Nodes (aber da laufen auch noch einige VMs und die Replikation, deswegen "fehlt" da auch schon etwas)...

Was die Werte angeht... die sind selbst bei der GBit-Schnittstelle... "schlecht".. wenn man von theoretischen 1000Mbit ausgeht, und sich Deine Zahlen zwischen 900-700 bewegen sind das ja quasi 10-30% Verlust.. geht garnicht. Noch viel schlimmer sieht es da natürlich bei der 10G-Strippe aus. Häng das Ding einfach mal direkt an den Rechner, alles andere dazwischen raus und ggf. auch mal das Netzwerkkabel tauschen (bei der direkten Verbindung).

So nebenbei (keine Ahnung, ob Du sowas auf dem Schirmen hast, deswegen erwähne ich es einfach mal) bei 10Gbit bzw. internen Dingen lohnt es sich dann auch die Jumboframes (9k) zu aktivieren, da verringert sich dann nochmal der Netzwerk-Overhead :)

EDIT: Beim iperf-"Server" mal so " iperf3 -i 1 -V -d -s -4 -f g" (da sind dann verbose- und debug-Infos dabei, ansonsten halt "iperf3 --help" um Dir die entsprechenden verfügbaren Parameter anzeigen zu lassen)
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
Mich wundert bei der 1 GBE Verbindung das ich hier beim Hin und Her Kopieren immer 114MBs hatte. was ja eigentlich sehr gut ist. Kann das bei der GBE-Schnittstelle evtl. am neuen Switch hängen? Ich hab diesen nur angeschlossen und die IP geändert, sowie sämtliche meiner Geräte angeschlossen damit wieder alles läuft. Für den Rest muss ich mich noch einarbeiten! (Cisco SG350)!

Oder liegt das an dem Docker Image?
 

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.104
Punkte
248
Sorry, mit Docker hab ich mal so rein garnichts an der Mütze, kann mir allerdings nicht vorstellen, dass es daran liegen soll :)
 

Swp2000

Benutzer
Mitglied seit
29. Nov 2013
Beiträge
2.008
Punkte für Reaktionen
34
Punkte
94
Hab es eben mal mit einem Mac versucht. Dieser ist per 2m Patchleitung an den Switch angeschlossen an welchem das NAS mit einer 1m Leitung hängt. Falls am Patchfeld ein Fehler wäre sollte ich hier ja die besten Werte bekommen.
Fehlanzeige! Genauso armselig
Bildschirmfoto 2020-05-02 um 18.45.01.jpg
 

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.104
Punkte
248
"Schön" ist halt anders, aber die Sache mit der 10G-Karte würde mich schon tierisch annerven... Gesehen hatte ich die Karte auch schon vor Ewigkeiten, habe bisher aber immer einen weiten Bogen darum gemacht (ich nutze eigentlich nur NICs von Intel - im 10G-Fall primär die X540/X550 (Single- oder Dual-Port). Nach einer kurzen Google-Suche ("ASUS XG C100C performance problem") scheinst Du aber auch nicht alleine mit Deinem Problem zu sein. Verzeih die Frage, aber die Patchkabel die Du bzgl. 10Gbit an den Geräten zum Switch nutzt... da ist aber kein Cat-5 mehr dabei, oder? :D Cat-6a dürfte es schon sein, gern auch Cat-7. Eventuell auch mal auf mögliche Störquellen prüfen... wenn larn schreibt, dass die Karte selbst problemlos funktioniert, muss ja irgendwo der Hund begraben sein :)

EDIT: Die "direkte" Verbindung hattest Du jetzt aber noch nicht getestet, oder?
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat