DS210+ langsam, warum?

Status
Für weitere Antworten geschlossen.

tempurafreak

Benutzer
Mitglied seit
05. Dez 2009
Beiträge
33
Punkte für Reaktionen
0
Punkte
6
Hi Leute,

ich habe mir jetzt auch eine DS210+ gegönnt, allerdings habe ich massive Probleme mit den Durchsatzraten insbesondere beim Schreiben. Hab bereits alles mögliche was ich hier im Forum gefunden habe ausprobiert und weiss so langsam nicht mehr weiter, hoffe daher dass hier jemand einen Tip hat.

Das Problem sieht man am besten an den folgenden Benchmark-Ergebnissen. Write-Performance mit ca. 12MB/s ist übel, insbesondere verstehe ich nicht warum beim ATTO-Benchmark die Write-Performance ab 64kB Blockgröße drastisch einbricht.
Read-Performance von 37MB/s ist auch deutlich unter den Benchmarks diverser Reviews und von Synology.

DS210ChrystalDiskMark.jpg


DS210ATTO_Benchmark.png


Quick Facts zur Hardware:
- PC ASUS P4P800 Board mit GB-LAN (3C940 Chip), Intel P4 2.6GHz, WinXP
- TP-Link TL-SG1005G GB-Switch, CAT5 Kabel
- DS210+ mit DSM 3.0-1340
- 2x Samsung HD204UI (ohne /Z4!, also 512b Blöcke) als RAID1
- Systempartition ext3, Volume1 ext4 Filesystem (so automatisch bei Erstinstallation angelegt, warum?)

Information von "parted":
Rich (BBCode):
Model: SAMSUNG HD204UI (scsi)
Disk /dev/hda: 1953514584kiB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Number  Start       End            Size           Type     File system     Flags
 1      128kiB      2490368kiB     2490240kiB     primary  ext3            raid
 2      2490368kiB  4587520kiB     2097152kiB     primary  linux-swap(v1)  raid
 3      4718592kiB  1953512032kiB  1948793441kiB  primary                  raid

Information von "fdisk -l -u":
Rich (BBCode):
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1             256     4980735     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2         4980736     9175039     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sda3         9437184  3907024064  1948793440+ fd Linux raid autodetect

Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdb1             256     4980735     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sdb2         4980736     9175039     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sdb3         9437184  3907024064  1948793440+ fd Linux raid autodetect

Was ich bisher ausprobiert/überprüft habe:
1) Firewall abgechaltet -> kein Effekt
2) DS210+ direkt am PC ohne Switch -> kein Effekt
3) MTU/Max.FrameSize von 1514 auf Jumboframes 4000 erhöht (PC+NAS) -> kein Effekt
4) FTP statt SMB: Write 15MB/s, Read 18MB/s bei einer 720MB Datei
5) HTTP statt SMB: Write 20MB/s, Read 12MB/s bei einer 720MB Datei
6) laut obigen Infos sollten die Partitionen auf 4k Blockgrenzen liegen, somit ok.
7) auf der DS: 720MB Dateien mit cp kopiert: Durchschnitt Read+Write = 1440MB/28s = 51MB/s
8) auf der DS: 6x720MB Dateien mit tar zusammengefasst: Durchschnitt Read+Write = 8640MB/190s = 45MB/s
9) Resource-Monitor gecheckt: keine Jobs die CPU wegfressen, DS ist idle wenn keine Fileoperationen laufen

Da die Ergebnisse von 7)+8) deutlich besser sind als die Benchmarks übers Netzwerk könnte es hier evtl. ein Problem geben, aber welches? Es liegt nicht am Protokoll (da SMB/FTP/HTTP alle nicht berauschend sind), MTU hatte auch nix gebracht.

Ich wundere mich auch wie es andere DS210+-Benchmarks auf über 100MB/s Read und bis 70MB Write (über LAN!) schaffen wenn ich mit Dateitransfers innerhalb der DS nur ca. 50MB/s (mit cp + tar) hinbekomme. Der verbauten HD204UI Benchmarks liegen bei ca. 130MB/s Read/Write und sollten (sofern es nicht ein Problem im Zusammenspiel mit der DS gibt) eigentlich nicht das Nadelöhr sein.

Wäre toll wenn jemand einen Tip hat warum mein DS so lahmt!

Danke schonmal,
Markus
 

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
Wäre toll wenn jemand einen Tip hat warum mein DS so lahmt!

Nun haste dich ja erstmal ausgiebig mit der DS beschäftigt. Wann kommt dein PC dran? Mess doch da auch mal nach. Es gab hier im Form jemanden, der hat eine SSD eingebaut und schon stieg die Performance um etliches.

Hast die nuesten Treiber für deine Netzwerkkarte auch dem PC?
Hast mal die Performance zwischen 2 PCs gemessen?

Itari
 

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
Ich wundere mich auch wie es andere DS210+-Benchmarks auf über 100MB/s Read und bis 70MB Write (über LAN!) schaffen wenn ich mit Dateitransfers innerhalb der DS nur ca. 50MB/s (mit cp + tar) hinbekomme.

Naja du kopierst auf der selben Platte, d.h. es wird zugleich gelesen und geschrieben .... also beides kostet ja Zeit, die beim Kopieren zusammen gerechnet wird. Nur wenn du auf eine externe Platte testest oder beide Platten als Basis eingerichtet hättest und zwischen den Platten kopieren würdest, dann würden ja die Zeiten zu einem Netzwerktransfer entsprechen.

Itari
 

tempurafreak

Benutzer
Mitglied seit
05. Dez 2009
Beiträge
33
Punkte für Reaktionen
0
Punkte
6
Naja du kopierst auf der selben Platte, d.h. es wird zugleich gelesen und geschrieben .... also beides kostet ja Zeit, die beim Kopieren zusammen gerechnet wird.

Das hab ich aber bereits berücksichtigt:
Wenn ich 720MB auf der gleichen Platte kopiere dann hab ich insgesamt 1440MB transferiert (720 Read + 720 Write). Macht bei 28s für diese Aktion dann 1440MB/28s = 51MB/s. Ob ich in der Zeit 1440MB nur lese oder nur schreibe oder gemischt lese/schreibe ist wurscht, schneller wird es nicht mehr (unter der Annahme das Lesen/Schreiben ca. gleiche Datenraten haben).
 

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
Ok, nicht genau genug gelesen. Kopiere doch mal eine große Datei (2-3 GB) auf der DS statt eine Gruppe von Dateien.

Itari
 

tempurafreak

Benutzer
Mitglied seit
05. Dez 2009
Beiträge
33
Punkte für Reaktionen
0
Punkte
6
Hast die nuesten Treiber für deine Netzwerkkarte auch dem PC?
Hast mal die Performance zwischen 2 PCs gemessen?

Neueste LAN-Treiber sind drauf. Ich hab keinen 2ten PC, geht daher leider nicht. Die Platte des PC sollte ohnehin keine Rolle spielen da die Benchmarks auf den lokalen Platten nichts lesen/schreiben sondern nur via Netzwerk auf dem NAS.
Auch wenn das Netzwerk ein Rolle spielen sollte, ich verstehe nicht wie andere Benchmarks über 100MB/s hinbekommen wenn ich nur die hälfte davon von dem RAID1 runterbekomme innerhalb der DS ...

Könnte jemand der auch schnelle Platten in seinem DS210+/DS209+ NAS hat sich via PUTTY einloggen und eine große Datei kopieren um die INTERNE Transferrate in der DS zu bestimmen? Ergebnisse bitte unter Angabe des Plattenmodels, RAID-Level, Filesystem (ext3/ext4), Sektoralignment (512b/4k) und DSM-Version posten, evtl. kann man daraus Rückschlüsse ziehen was bei mir anders ist. Danke!
 

tempurafreak

Benutzer
Mitglied seit
05. Dez 2009
Beiträge
33
Punkte für Reaktionen
0
Punkte
6
Kopiere doch mal eine große Datei (2-3 GB) auf der DS statt eine Gruppe von Dateien.

1 x 4320MB kopiert = 8640MB / 90s = 96MB/s
1 x 720MB kopiert = 1440MB / 14s = 103MB/s

Huch, warum ist die Kiste denn auf einmal schneller geworden?!?!? :eek:
 

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
Die Platte des PC sollte ohnehin keine Rolle spielen da die Benchmarks auf den lokalen Platten nichts lesen/schreiben sondern nur via Netzwerk auf dem NAS.
Auch wenn das Netzwerk ein Rolle spielen sollte, ich verstehe nicht wie andere Benchmarks über 100MB/s hinbekommen wenn ich nur die hälfte davon von dem RAID1 runterbekomme innerhalb der DS ...

Naja, wenn du lokal auf einem PC kopierst, siehst ja nicht nur die Performance der Platte, sondern auch des Dateisystems. Und das benutzt ja auch bei den Netzwerk-Tools ein wenig.

Man kann über die Performance-Werte streiten wie man mag ... es sind ja nicht unbedingt immer die gleichen Verhältnisse anzutreffen: ext3/ext4 - viele Dateien versus eine große Datei - möglicherweise ist auch der Linux-Kernel jetzt unter dem DSM 3.0 ein anderer ... auch die Platten sind ja immer wenig verschieden - selbst in der gleichen Baureihe gibt es zum Teil große Unterschiede. Das mag auch für die NAS gelten. Mir ist es auch egal , ob du nur 50% der Werte erreichst, die Synology vorgibt ... ich kann dir nur Anregungen geben, wie du deine DS besser mit deinem PC zusammen bekommst, aber du hast ja schon recht viel selbst probiert.

Itari
 

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
1 x 4320MB kopiert = 8640MB / 90s = 96MB/s
1 x 720MB kopiert = 1440MB / 14s = 103MB/s

Huch, warum ist die Kiste denn auf einmal schneller geworden?!?!? :eek:

Also bei den Werten würde ich jetzt nicht gerade mit der DS hadern :D

Itari
 

tempurafreak

Benutzer
Mitglied seit
05. Dez 2009
Beiträge
33
Punkte für Reaktionen
0
Punkte
6
Noch 2 Benchmarks gemacht (unterschied zu meinen Zahlen im ersten Post: hab die DS einmal neu gebootet):

auf DS: tar 6 x 720MB = 8640MB / 93s = 93MB/s :)
über LAN: ChrystalDiskMark: Read 34MB/s, Write 12MB/s :mad:

Irgendwas ist da doch faul ...
 

randfee

Benutzer
Mitglied seit
08. Apr 2010
Beiträge
1.070
Punkte für Reaktionen
3
Punkte
64
hier die Performance meiner DS410 mit verschieden großen files (siehe Anhang). Hier der Thread dazu.

Wir haben ja gleiche CPU und Speicher, nur mehr drives hab ich. Da siehst du, dass es bei kleinen Files schnell vorbei ist mit der Performance-Herrlichkeit. Ich warte immer noch darauf, dass ich mal nen ähnlichen Test mit einer Atom-basierten NAS sehe....
 

Anhänge

  • NAS_performance.numbers-20100930-061615.jpg
    NAS_performance.numbers-20100930-061615.jpg
    25,1 KB · Aufrufe: 85

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
Da siehst du, dass es bei kleinen Files schnell vorbei ist mit der Performance-Herrlichkeit.

Was auch erklärbar ist:

Normalerweise wird beim Schreiben einer Datei als Operation notwendig:

- 1x Durchsuchen der Superblocks nach einer freien Inode, welche auch noch in der Nähe des jeweiligen Directories liegen soll
- Durchsuchen der Free-Block-Lists nach freien Blöcken fürs Abspeichern der Daten (wenn die Datei größer ist als ein paar Bytes - sonst werden die Daten bei ext3 direkt in den Inode geschrieben; bei ext4 kann es enger werden, da ja Platz für ein paar der erweiterten Dateiattribute belegt wird). Wenn die Datei noch recht klein ist, wird der erste Datenblock eventuell auch noch segmentiert und man muss einen passenden Datenblock suchen, der Platz für das/die Segmente hat. Laden der Free-Block-List-Blöcke in den File-Chace, damit man beim nächsten Zugriff nicht lesen muss.
- dann wird der Eintrag im Directory fällig, eventuell liegt der nicht im File-Cache und muss noch geladen werden
- da das alles Metadaten sind (inode, Blocknummer(n), Directory), muss bei ext3 und ext4 jetzt das Journal geschrieben werden und bei RAID1 wird meist auch noch darauf gewartet, dass die Synchronisation des Journals auf beiden Laufwerken quittiert wird (kann man beim Mounten definieren)
- und jetzt endlich können die Datenblöcke geschrieben werden
- am Ende des Schreibvorgangs werden noch einmal alle Metainformation aktualisiert (ink. des Journals [commit])

Man sieht dass der Aufwand für eine Datei nicht unbeträchtlich ist und dass das Filesystem man viel mehr tun muss bei kleinen Dateien als bei einer großen Datei. Natürlich wird viel im RAM gehalten (bis auf das Journal) und so kann es schon passieren, dass unter günstigen Umständen ein weiterer Kopiervorgang erheblich schneller ist. Muss aber nicht unbedingt.

Die meisten Punkte fallen auch bei NTFS an, heißen da meist ein wenig anders, sind aber genauso. Was ich jetzt nicht beschrieben habe, sind die Aktualisierungen der Metadatenkopien; denn wir wollen ja, dass die Dateisysteme robust sind.

Itari
 

randfee

Benutzer
Mitglied seit
08. Apr 2010
Beiträge
1.070
Punkte für Reaktionen
3
Punkte
64
vom filesystem will ich garnicht erst loslegen, ich will ZFS, heul, musste Oracle unbedingt SUN kaufen und Opensolaris (und damit ZFS für den Normaluser) einstampfen, es ist zum weglaufen! Ich denke/hoffe, dass Apple, jetzt wo ZFS vom Tisch ist (wars ja schon bei 10.6 obwohl es in den Entwicklerbuilds drin war) hoffentlich intern kräftig arbeitet und selber sowas mächtiges aufzieht, gerade von den Sicherheitsaspekten und den Backup-Möglichkeiten ist es unschlagbar. Sowas wie TimeBackup wäre damit ein Klacks! Aber auch die Flexibilität ist doch besonders für Normaluser, die nichts damit zu tun haben wollen, herrlich, es wurde nur nie in den großen Systemen implementiert.

Argh.
 

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
vom filesystem will ich garnicht erst loslegen, ich will ZFS ....

Nun einiger wäre ja auch bereits im LVM vorhanden (RAID, Snapshot). ZFS arbeitet mit 128bit-Einheiten, was bei kleinen Prozessoren dann schon nicht ganz günstig ist ... gäbe es dafür spezielle Prozessoren, dann wär es der Hammer ... aber eigentlich nur dann, wenn es genau ein ZFS auf der Welt geben würde und jeder ein Teil davon wäre ... alle alle Daten lesen und verändern dürfen und es keine Verschlüsselung mehr geben würde. Leider sind die Menschen an dieser Stelle noch nicht so weit wie das ZFS :D

Itari
 

janus

Benutzer
Mitglied seit
07. Sep 2010
Beiträge
667
Punkte für Reaktionen
0
Punkte
0
Nun einiger wäre ja auch bereits im LVM vorhanden (RAID, Snapshot). ZFS arbeitet mit 128bit-Einheiten, was bei kleinen Prozessoren dann schon nicht ganz günstig ist ... gäbe es dafür spezielle Prozessoren, dann wär es der Hammer ... aber eigentlich nur dann, wenn es genau ein ZFS auf der Welt geben würde und jeder ein Teil davon wäre ... alle alle Daten lesen und verändern dürfen und es keine Verschlüsselung mehr geben würde. Leider sind die Menschen an dieser Stelle noch nicht so weit wie das ZFS :D

Itari

Jep und in letzter Zeit stellt sich wohl immer mehr heraus, dass ZFS ein Problem mit Fragmentierung hat, was im laufe der Zeit immer mehr Performance kostet.
Einzige Lösung ist meines Wissens derzeit ein Backup und komplett neu einspielen der Daten, um das Filesystem wieder frisch zu bekommen.

Gruß

Janus
p.s. Und falls ein Fanboy jetzt meckern möchte: Ich bin Consultant mit Solaris und SUN Cluster Zertifizierung und mag ZFS, das FS hat eine Menge Vorteile, nur ein Defrag Tool wäre nicht schlecht.
 

tempurafreak

Benutzer
Mitglied seit
05. Dez 2009
Beiträge
33
Punkte für Reaktionen
0
Punkte
6
Hi,

wollte mich nochmal zurückmelden. Es hat sich herausgestellt dass die Ursache für den Performance-Einbruch beim Schreiben doch der LAN-Treiber auf meinem PC war. Microsoft hat zwar behauptet dass ich den aktuellen Treiber installiert habe, nach längerem suchen im WWW hat ich dann aber noch einen Treiber gefunden der laut 3COM offiziell nur einen anderen LAN-Chip unterstützt, aber auch kompatibel zum meinem 3C940 ist:

DS210ATTO_Benchmark_New.png


DS210ChrystalDiskMark_New.png


Das ist zwar immer noch deutlich unter den Werten die Synology angibt, aber dass könnte evtl. auch daran liegen dass mein PC nicht mehr schafft. Die Read-/Write Werte machen jetzt jedenfalls mehr Sinn.

Markus
 

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
Wow ... das ist aber schon beachtlich, was da der Treiber ausmacht.

BTW hast mal ausprobiert wie die Übertragungsperformance bei einer (!) 4-8 GB-File zwischen PC und DS aussieht?

Das würde mich persönlich jetzt interessieren.

Itari
 

Super-Grobi

Benutzer
Mitglied seit
28. Sep 2010
Beiträge
1.913
Punkte für Reaktionen
0
Punkte
62
Frage am Rande: Was ist denn das für ein Benchmark-Tool?
 

tempurafreak

Benutzer
Mitglied seit
05. Dez 2009
Beiträge
33
Punkte für Reaktionen
0
Punkte
6
BTW hast mal ausprobiert wie die Übertragungsperformance bei einer (!) 4-8 GB-File zwischen PC und DS aussieht?

Datei kopieren unter Win-XP im Explorer:
Read = 5311MB / 325s = 16.3MB/s
Write = 5311MB / 444s = 12.0MB/s

Das ist nicht wirklich fix, die Platte im PC ist nicht das Nadelöhr, die kann ca. 50MB/s schaufeln.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat