Meine DS-Mühlen - Alles lahme Schnecken? Hilft hier was größeres?

Status
Für weitere Antworten geschlossen.

Werner1959

Benutzer
Mitglied seit
11. Okt 2016
Beiträge
105
Punkte für Reaktionen
0
Punkte
16
Ich habe derzeit folgende: DS412+, DS216j und 718+. Die DS718+hat eine zusätzliche 4GB RAM Karte drin.

Die Geschwindigkeit beim Kopieren über Gigabit-Ethernet liegt in etwa bei 120 Mbyte/sek., damit dürfte die Netzwerkkapazität bereits ausgereizt sein.

Sobald aber auf einer der Mühlen irgendein anderer Job läuft, sei es Backup, sei es sonstwas, sei es dass jemand anderes grad was draufkopiert oder streamt, geht die Kopiergeschwindigkeit in den Keller. Bei 2 Kopierjobs gleichzeitig kann ich noch froh sein, wenn es sich nur halbiert, meist liegt die Geschwindigkeit dann deutlich darunter. Und zwar auch dann, wenn im selben NAS unterschiedliche Platten angesprochen werden. Z.B. User 1 kopiert auf die DS412+ auf Platte 1, User 2 auf Platte 3. Teilweise ist das dann alles so träge, dass es schon richtig ätzend ist. Bei vier gleichzeitigen Sachen ist das schier nicht mehr auszuhalten. Vier User für eine DS412+ halte ich nun wirklich nicht zuviel, immerhin wurde die damals auch für kleine Firmen angepriesen

Liegt das daran, dass meine DSe nicht genug Power haben? Würde das mit einer (z.B.) DS3617xs geschmeidiger laufen, so dass man es nicht bemerkt, ob gerade ein oder vier Leute die Kiste beanspruchen? Oder brauche ich da was ganz anderes in einer anderen Größenregion jenseits von Synology?

Selbst wenn ich auf 10 Gbit Ethernet aufrüsten würde, würde ein Backup-/Kopiervorgang von rund 10 TB gefühlt immer noch ewig dauern und es wäre mir wohl nicht schnell genug.

ich frage mich grad, wie das denn die richtig großen Firmen machen, wie z. B. Google, Amazon, Facebook und Co. Das sind ja nochmal ganz andere, schier unvorstellbare, Datenmengen. Ich stelle mir grad vor, wie der junge Systemadministrator das Backup anstößt und kurz vor seiner Rente dann mal nachschaut, wie weit das Backup schon ist. Mal ganz abgesehen davon, dass bei der dortigen Datenfluktuation jedes Backup kurz nach Beginn schon wieder hoffnungslos veraltet ist. Aber letztlich kochen die großen Player ja auch nur mit Wasser und mit gängigen Festplatten und stoßen dabei ebenfalls auf die Unannehmlichkeiten der Physik, die ein Beamen von Daten und dergleichen verhindern.

Erwarte ich hier nur zu viel von den Mühlen oder geht’s auch ein bissel schneller und geschmeidiger?
 

AndiHeitzer

Benutzer
Sehr erfahren
Mitglied seit
30. Jun 2015
Beiträge
3.332
Punkte für Reaktionen
624
Punkte
174
Wenn ein User eine Datei kopiert, dann hat er die volle Bandbreite der Netzanbindung für sich alleine.
Wenn nun zwei User 'wie wild' kopieren, dann müssen sich die beiden User die immer noch gleiche Bandbreite teilen.
Wenn die DS großartig hin- und herkopiert, dann wird vermutlich der Engpass der Datenstrom zur Disk der limitierende Faktor sein.

Streaming frisst nicht so viel Brot, meist irgendwas um die 10MB oder etwas drüber.

Das Gefühl, daß die Cloud-Anbieter hier etwas geschmeidiger unterwegs sind, wird schon etwas verfälscht.
Zum Einen sind die einzelnen Server mit vermutlich 10GB-Netzwerkkarten angebunden. 10GB für Privaten Gebrauch ist noch nicht wirklich billig.
Zudem dürften Loadbalancing und Caching Deine Wahrnehmung in die irre führen.
Die Datenmengen dürften je User weniger sein, als das, was Du bei Dir daheim grade durchgezogen hast. Von daher wird die Wahrnehmung auch nicht vergleichbar sein.

Bei mir daheim habe ich einen NUC, der mir Fernsehsendungen (10GB-20GB) aufzeichnet und diese dann auf meiner DS ablegt. Mit meinem PC hole ich die Files ab und bastel dann noch etwas dran rum (Werbung, Anfang und Ende), bevor ich die Filme dann wieder auf der DS ablege.
Sehr oft erreiche ich hier rund 100MB, aber teilweise auch nur etwas weniger, kommt drauf an, was grade hin- und hergeschoben wird oder ob die DS noch eine Diskintensiven Job abarbeitet.
 

blotto82

Benutzer
Mitglied seit
14. Mrz 2011
Beiträge
588
Punkte für Reaktionen
43
Punkte
48
Was für Festplatten sind in der DS 412+ verbaut? Nutzt du Link Aggregation?
Gigabit ist leider nicht mehr ganz Zeitgemäß, aber 10GBE ist leider noch viel zu teuer für Privat.
Wer allerdings solch große Datenmengen bewegt, sollte über eine alternative nachdenken, da ist dann ein fertiges NAS mit 1-4GBit LAN nicht die beste Lösung.
Bisher bin ich noch zufrieden mit Gigabit, da durch Link Aggregation ich mit mindestens zwei Usern keine Einbußen habe.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.804
Punkte für Reaktionen
3.761
Punkte
468
Da hilft auch LA nichts mehr. Wenn Werner jedes DSM-Update mitgemacht hat, kann ich mir gut vorstellen, dass seine DS412+ sackelangsam ist. Das deckt sich ganz mit den Beobachtungen bei meiner D212+, die ist auch kaum noch zu gebrauchen. Früher war die mal richtig schnell.
Ich denke langsam, da steckt Prinzip seitens Synology dahinter, gerade älter, CPU-schwächere DSen so sehr mit irgendwelchem unnötigen Zeugs zu belasten, dass kaum noch Reserven übrig bleiben.
 

blotto82

Benutzer
Mitglied seit
14. Mrz 2011
Beiträge
588
Punkte für Reaktionen
43
Punkte
48
Das Aufgabenprofil ändert sich auch mit der Zeit. Als ich mit meiner 211+ angefangen habe, war die auch super schnell und konnte alles mit machen.
Jetzt sind 7 Jahre rum, und meine Anforderungen sind gewachsen, das Gerät aber leider nicht.
Hab nun eine 918+ und die 414 mittels LA am Switch angebunden, es gibt keinerlei Probleme mit mehreren Nutzern.
 

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
3.017
Punkte für Reaktionen
428
Punkte
149
Wenn Werner jedes DSM-Update mitgemacht hat, kann ich mir gut vorstellen, dass seine DS412+ sackelangsam ist. Das deckt sich ganz mit den Beobachtungen bei meiner D212+, die ist auch kaum noch zu gebrauchen. Früher war die mal richtig schnell.
Was auch sein kann, dass das Root Verzeichnis (nicht Volume1) vollgelaufen ist. Leider schafft es Synology manchmal beim patchen nicht ordentlich aufzuräumen, so dass sich im Laufe der Jahre zuviel Müll auf Root ansammelt. Da würde helfen sich mal per telnet/ssh einzuloggen und mit du zu schauen, wie viel Platz noch auf Root frei ist.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.804
Punkte für Reaktionen
3.761
Punkte
468
Nein, nein, das meinte ich nicht. Das Root-Verzeichnis meiner DS212+ mit 2,4GB ist gerade mal zu 42% belegt. Sicher könnte man da mal auch etwas aufräumen.
Man muss bei den neueren DSM-Versionen beispielsweise nur mal das Paketzentrum öffnen und sich die installierten Pakete anschauen und parallel dazu mit "top" zuschauen, was da so abgeht. Eine halbwegs aktuelle DS schafft das mit links, aber eine alte ist gleich bei 100% CPU. Kein Wunder wenn dann fast alles zusammenbricht und ewig dauert, wenn man dann noch was installiert/deinstalliert. Solche Dinge meinte ich. Die neueren DSM-Versionen sind m.E. einfach nicht mehr für ältere, CPU-schwächere DSen geeignet.
 
Zuletzt bearbeitet:

Werner1959

Benutzer
Mitglied seit
11. Okt 2016
Beiträge
105
Punkte für Reaktionen
0
Punkte
16
Link Aggregation:
Link Aggregation, ja, aber geschwindigkeitsmäßig macht das keinen Unterschied. Jumbo-Pakete habe ich mal versucht einzustellen in DS und PC, danach habe ich meine DS zunächst nicht mehr erreicht, ich weiß nicht mehr wie ich es dann doch noch geschafft habe und dann habe ich das mit den Jumbo-Frames wieder rückgängig gemacht.

Updates:
Ja klar habe ich jedes Update mitgemacht, sowohl bei der 412+ als auch bei den anderen beiden. Ich dachte, das sei allein schon aus Sicherheitsgründen empfehlenswert.

Festplatten:
In der 412+ sind 2*3TB und 2*10TB, alles WD RED.
Und es soll noch mehr Kapazität dazukommen. Und bevor ich jetzt, wie in einem anderen Thread mal angedeutet, ein oder zwei 918+ kaufe und die gehen dann genauso in die Knie wie die vorhandenen Geräte, nur weil sie mit drei oder vier Sachen gleichzeitig belästigt werden und ich ärgere mich dann, frage ich halt hier sicherheitshalber mal vorher nach Alternativen.

Root-Verzeichnis:
Wie kann ich mit Bordmitteln über die Weboberfläche (alles andere ist nicht mein Ding) schauen, wie voll das Root-Verzeichnis ist und ggfls. dort manuell aufräumen?


Wer allerdings solch große Datenmengen bewegt, sollte über eine alternative nachdenken, da ist dann ein fertiges NAS mit 1-4GBit LAN nicht die beste Lösung.
Tja, und was wäre dann die beste (halbwegs bezahlbare) Lösung?
 

Werner1959

Benutzer
Mitglied seit
11. Okt 2016
Beiträge
105
Punkte für Reaktionen
0
Punkte
16
Das Gefühl, daß die Cloud-Anbieter hier etwas geschmeidiger unterwegs sind, wird schon etwas verfälscht.
Zum Einen sind die einzelnen Server mit vermutlich 10GB-Netzwerkkarten angebunden. 10GB für Privaten Gebrauch ist noch nicht wirklich billig.
Zudem dürften Loadbalancing und Caching Deine Wahrnehmung in die irre führen.
Die Datenmengen dürften je User weniger sein, als das, was Du bei Dir daheim grade durchgezogen hast. Von daher wird die Wahrnehmung auch nicht vergleichbar sein.
Möglicherweise, "je User". Aber die haben ja mehrere Millionen von Usern, d.h. die haben ein weit Vielfaches an Daten. Daher auch meine Frage, wie die ihre Backups technisch so machen, dass die nicht mehrere Jahre oder Jahrzehnte dauern. Was ist das für eine Zauber-Hardware?
Ich meinte jetzt auch nicht "Cloud-Anbieter", die Cloud-Speicher für Cloud-Backups für Kunden anbieten, sondern die Datenmengen des operativen Geschäfts von Läden wie Amazon, Facebook, Google und Co., mit z.B. all ihren - noch dazu ständig wachsenden - Waren- und Bestellmengen (bei Amazon), die Crawlerergebisse bei der Google-Suchmaschine und der ganze Schrott, den Leute mit zuviel Zeit bei Facebook über ihre Essensgewohnheiten und andere Nichtigkeiten hochladen. Bei dem Vielfachen an Daten reissen es bei den genannten Läden 10GB-Karten und SSD-Cache sicher nicht raus. Da muss es noch was ganz anderes geben.
 

AndiHeitzer

Benutzer
Sehr erfahren
Mitglied seit
30. Jun 2015
Beiträge
3.332
Punkte für Reaktionen
624
Punkte
174
Wie ich schon schrieb ...
Facebook, Amazon, Google und Co. haben nicht nur ein einziges Webfrontend ... das meinte ich mit Loadbalancing.
Bei meinem Arbeitgeber verwenden wir schon länger keine Tapes mehr, um Backups anzufertigen. Da braucht es schon größere Storagemechanismen, die auch schnell genug die Server sichern.
Da können wir uns hier mit unseren 'Mini-Kisten' sehr weit hinten anstellen, was solche Möglichkeiten angeht.
Die 'Global-Player' werden darüber hinaus sicherlich mit Snapshot-Techniken arbeiten.
Aber hier lehne ich mich schon recht weit aus dem Fenster, weil mein Fachgebiet eher DB-Server sind und nicht das Backup-Umfeld.
 

Werner1959

Benutzer
Mitglied seit
11. Okt 2016
Beiträge
105
Punkte für Reaktionen
0
Punkte
16
Ich habe mal gelesen, dass bei Google mit einer einzigen Suchanfrage 1000 (!) Server gleichzeitig beschäftigt sind. Das meinst du wahrscheinlich mit dem Loadbalancing. Trotzdem muss die die Entgegennahme der Anfrage und dann am Ende die Auslieferung des aufbereiteten Suchendergebnisses wohl durch jeweils einen einzigen Server erfolgen, der auch bei x Anfragen nicht in die Knie gehen darf. Aber auch von dieser Sorte Server stehen wohl Tausende bei Google rum, um die Anfragen erstmal auf weitere Tausende zu verteilen.

Letztlich ist das Reagieren auf Online-Anfragen aber nicht mein Thema, sondern das Bewegen von Daten innerhalb einer DS, von einer DS zu einer dranhängenden USB-Platte und von einer DS zum PC und umgekehrt und vielleicht irgendwann mal von einer DS zu einer - noch nicht vorhandenen - Expansionseinheit (oder umgekehrt).

Und die Performance als solche. Schon beim Aufruf der Weboberfläche der DSe merke ich an der Geschwindigkeit des Seitenaufbaus, ob da grad was läuft oder nicht. Und das sollte nicht sein. Wenn die Amazon-Seite mit X Bildern übers Internet sich schneller aufbaut als die Webseite der DS über 1 GBit-Ethernet nach dem Einloggen fix und fertig auf dem Bildschirm steht, dann ist das Mist.

Tapes, also Bänder, wären für mich schon deswegen keine Backup-Option, da die auf dem aktiven System verlorene Datei, die „eben mal schnell“ wiederhergestellt werden muss, nach Murphys Gesetz ganz sicher am anderen Ende des Bandes abgelegt ist. Außerdem habe ich da mal extrem schlechte Erfahrungen damit gemacht, kein einziges Sicherungsband war da mehr lesbar, warum auch immer. Ist aber schon 16 Jahre her, also aus heutiger Sicht verschmerzt.

Was für mich interessanter klingt, ist die Umschreibung „größere Storagemechanismen, die auch schnell genug die Server sichern“. Klingt echt gut, aber: Was gibt es denn da überhaupt noch außer Festplatten und Bändern?
 
Zuletzt bearbeitet:

AndiHeitzer

Benutzer
Sehr erfahren
Mitglied seit
30. Jun 2015
Beiträge
3.332
Punkte für Reaktionen
624
Punkte
174
Bei uns im Hause werden HITACHI, EMC und NETAPP eingesetzt. Die Anbindung der Server dorthin wird über FibreChannel realisiert.
Frag mich aber jetzt nicht, wie schnell diese Anbindung ist. Da müsste ich mich nun sehr weit aus dem Fenster lehnen.
Gefühlt aber sauschnell im Vergleich zu einer DS916+, wie ich sie habe.
 

Werner1959

Benutzer
Mitglied seit
11. Okt 2016
Beiträge
105
Punkte für Reaktionen
0
Punkte
16
Bei uns im Hause werden HITACHI, EMC und NETAPP eingesetzt. Die Anbindung der Server dorthin wird über FibreChannel realisiert.
Eindeutig unbezahlbar (für mich), hab grad mal nach den Preisen geschaut; mit dem Fernrohr, da astronomisch.

Ich fürchte, ich muss mich mit meinen Qualschnecken abfinden.
 

Nomad

Benutzer
Mitglied seit
23. Okt 2008
Beiträge
597
Punkte für Reaktionen
0
Punkte
0
Ich habe solche Erfahrungen auch mit meinem DS216j auch gemacht. Kopiervorgang läuft, ich lösche Verzeichnis. Dann wird es extrem zäh. Es dauert einige Sekunden, um eine Datei zu löschen.

Ich tippe da auf zu langsame Hardware. Bei einem i5-4xxx Server der unter Debian läuft geht es wie erwartet schnell.
 

Werner1959

Benutzer
Mitglied seit
11. Okt 2016
Beiträge
105
Punkte für Reaktionen
0
Punkte
16
Würde mir da eine DS3617xs weiterhelfen oder ist dieses Gerät vom Prozessor her ebenfalls zu schwach für meine Erwartungen an geschmeidiges Verhalten? Oder Alternative? Ob die DS918+ ausreicht, bin ich mir nicht mehr so sicher, zumal die 918+ ja im Grunde ein (wenngleich mit mehreren Generationen dazwischen) Nachfolger der DS412+ ist.
 

Nomad

Benutzer
Mitglied seit
23. Okt 2008
Beiträge
597
Punkte für Reaktionen
0
Punkte
0
Die Stärke von fertigen Lösungen wie Synology IMHO ist, dass man genau die Leistung bekommt die benötigt werden. Beim Selbstbau schießt man in der Regel über das Ziel hinaus und steht mit viel zu viel Hardware da.

Die Frage wäre also wie viel Leistung will ich und wie viel will ich dafür ausgeben?

Ich weiss z.B. von meiner DS216J was ich erwarten kann und bin damit zufrieden. Mit meiner Debian PC bin ich auch zufrieden aber ich weiss auch, dass der total überdimensioniert ist. Andererseits finde ich es gar nicht so schlecht wenn der selbst bei sehr anspruchsvollen Aufgaben losfliegt. :)

Ansonsten würde ich aber schon glauben, dass sich in den sechs Jahren die zwischen 412+ und 918+ liegen etwas getan hat. Ob das aber so viel war um deine Bedürfnisse abzudecken kann wohl keiner sagen...
 

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
3.017
Punkte für Reaktionen
428
Punkte
149
Würde mir da eine DS3617xs weiterhelfen oder ist dieses Gerät vom Prozessor her ebenfalls zu schwach für meine Erwartungen an geschmeidiges Verhalten? Oder Alternative? Ob die DS918+ ausreicht, bin ich mir nicht mehr so sicher, zumal die 918+ ja im Grunde ein (wenngleich mit mehreren Generationen dazwischen) Nachfolger der DS412+ ist.

Schau Dir mal die Rohwerte der beiden CPU im Vergleich an.

Auch wenn die 918+ irgendwie ein Nachfolger der 412+ ist, hat sie doch einen wesentlichen potenteren Prozessor. Und aus meiner Sicht ist eher die 418play ein Nachfolger der 412+ (4 Bay, Dual Core Intel).

http://cpuboss.com/cpus/Intel-J3455-vs-Intel-Atom-D2700
https://www.technikaffe.de/cpu_vergleich-intel_atom_d2700-48-vs-intel_celeron_j3455-662
 

ClearEyetemAA55

Benutzer
Mitglied seit
14. Apr 2018
Beiträge
272
Punkte für Reaktionen
4
Punkte
18
DS412+, DS216j und 718+... Eigentlich ist das eine stimmige Kombination. Die 216j könnte man durch eine DX-Erweiterungseinheit an der 718+ rausnehmen.

Die 412+ kann mit 4gb aufgerüstet werden (Es gibt auch Hinweise, dass man bei 4gb noch etwas nachjustieren soll: https://forum.synology.com/enu/viewtopic.php?f=140&t=55105&start=15#p224897 ). Sie performed im Raid1 oder Raid10 (70-200mbits, intern von SSD->Raid und vice versa) deutlich besser als im Raid5 oder 0 (40-90mbits)
Bei mir lief darauf letztlich ein Raid1+Hotspare und eine SSD (als Volume1) für Anwendungen. Und dann lohnt sich zu überlegen die beiden Netzwerkports der 718+ und 412+ im smb3-Multichannel zu verwenden.

Oder man kann einfach mal ein paar ungenutzte Dienste rauswerfen, wenn es nicht läuft...
/usr/syno/etc/rc.d/S56synoindexd.sh stop
/usr/syno/etc/rc.d/S88synomkflvd.sh stop
/usr/syno/etc/rc.d/S77synomkthumbd.sh stop
/usr/syno/etc/rc.d/S55cupsd.sh stop
/usr/syno/etc/rc.d/S20pgsql.sh stop
/usr/syno/etc/rc.d/S66fileindexd.sh stop
/usr/syno/etc/rc.d/S03hotplugd.sh stop
/usr/syno/etc/rc.d/S03inetd.sh stop
/usr/syno/etc/rc.d/S98findhostd.sh stop

http://blog.jeffcosta.com/?s=synology
 

Werner1959

Benutzer
Mitglied seit
11. Okt 2016
Beiträge
105
Punkte für Reaktionen
0
Punkte
16
Eine aktuelle Beobachtung: Auf der DS412+ läuft gerade (wöchentlich) "Integrität der Sicherung wird überprüft". Das betrifft die 3TB-Platte im Schacht 2. Parallel habe ich auf die 10-TB-Platte in Schacht 3 kopiert. Diese Integritätsprüfung, die nun schon seit 14 Uhr läuft und bei 61% ist, hat sich prompt auf die Kopiergeschwindigkeit negativ ausgewirkt.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat