+-Serie Arbeiten mit DS 412+

Alle Geräte der +-Serie. Geräte für kleinere und mittlere Unternehmen.
Status
Für weitere Antworten geschlossen.

chris_87

Benutzer
Mitglied seit
24. Apr 2010
Beiträge
53
Punkte für Reaktionen
0
Punkte
0
Moin zusammen,

ich habe mittlerweile in meinem Unternehmen eine DS412+ mit 4x500GB SSD-Platten als RAID10-Verbund im Einsatz. Tägliches Backup gibt es natürlich auch noch auf einer anderen Synology. Ich bin in der Werbung tätig und bearbeite die Dateien (Photoshop, Illustrator, inDesign, etc) direkt auf dem Server. Das Ganze ist über Ein Gigabit-Switch ins Netzwerk eingebunden.

Nun habe ich gelesen, dass man noch ein paar Modifikationen vornehmen kann um die Performance der DS etwas zu erhöhen. Und hier würde gerne wissen was überhaupt sinnvoll ist bzw. einen spürbaren Geschwindigkeitsvorteil bringen könnte. Mit Geschwindigkeitsvorteil meine ich, dass das Öffnen der Daten in den Programmen und auch die Ladevorgänge innerhalb der Programme beschleunigt werden.

  • RAM der DS upgraden (würde ich mir technisch auf jeden Fall zutrauen)
  • Link Aggregation - Hier müsste ich eine neuen Switch besorgen. Ich habe gelesen, dass das vor allem Sinn macht, wenn mehrere Clients auf die Synology zugreifen. Mein MacPro hat allerdings 2 Ethernet-Anschlüssen. Könnte ich dann nicht mit 2 Kabeln aus dem Mac in den Switch und von dort mit 2 Kabeln an die DS? Würde das generell etwas "bringen"?
  • Ich hab ebenfalls noch gelesen, dass man bei der DS ein SSD Cache einrichten kann. D.h. ich müsste an die DS eine Expansioneinheit (z.B. DX213) hängen und dann nochmal 2 SSDs einbauen...Auch hier die Frage..."Bringt" das überhaupt etwas?
  • Gibt es noch alternative Möglichkeiten die ich nicht erwähnt habe?
Ich danke euch schon mal im Voraus für eure Hilfe

Viele Grüße und schönen Tag

Chris
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Ein SSD-Cache ist m.E. immer schlechter als direkt mit SSDs zu arbeiten - über eine DX erst recht. Insofern würde ich den Punkt streichen. Ein RAM-Upgrade bringt dann etwas, wenn die RAM-Auslastung bei Dir hoch ist. Ist sie es nicht, würde ich auch den Punkt überlegen. Schaden tut es aber nicht, wenn das SODIMM-Riegel stabil funktioniert. Bei 4GB ist allerdings Schluss bei der 412+.
 

FortyTwo

Benutzer
Mitglied seit
03. Dez 2015
Beiträge
39
Punkte für Reaktionen
0
Punkte
0
Hallo Chris,

Ob ein RAM-Upgrade was bei Dir bringt, hängt natürlich auch davon ab, was Du mit der DS eigentlich alles machst, vor allem parallel. Wenn die NAS keine Parallel-Tasks zu erledigen hat, dann bringt Dir ein Ram-Upgrade wahrscheinlich nichts. Anderseits ist RAM jetzt auch nicht gerade übermäßig teuer, also warum nicht. Ich habe meine DS716+ gleich auf 8 GB aufgerüstet, die RAM-Auslastung bleibt aber immer unter 20%, das RAM-Upgrade war demnach völlig unnötig.

Link Aggregation bringt bei einem Client nichts, selbst wenn der Client zwei Lan-Ports hat. Das Geld für den neuen Switch kannst Du Dir also sparen.

Für den SSD-Cache gilt dasselbe wie beim RAM-Upgrade: für was brauchst Du den Cache? Deinem Post kann man entnehmen, dass Du Photoshop-, Illustrator- und inDesign-Dateien direkt von der NAS bearbeitest. Hier gilt zu bedenken, dass der LAN-Port der Flaschenhals ist, eine SSD hier also gar nichts bringen wird. Für einen Performance-Schub würde ich empfehlen die Arbeitsdateien auf den Client zu legen und von dort mit der NAS syncen. Das wird das Arbeiten mehr beschleunigen, als jegliche teure (und wahrscheinlich unnötige) Tuning-Aktion bei der NAS.

cu,
Daniel
 

Matthieu

Benutzer
Mitglied seit
03. Nov 2008
Beiträge
13.222
Punkte für Reaktionen
88
Punkte
344
  • Link Aggregation - Hier müsste ich eine neuen Switch besorgen. Ich habe gelesen, dass das vor allem Sinn macht, wenn mehrere Clients auf die Synology zugreifen. Mein MacPro hat allerdings 2 Ethernet-Anschlüssen. Könnte ich dann nicht mit 2 Kabeln aus dem Mac in den Switch und von dort mit 2 Kabeln an die DS? Würde das generell etwas "bringen"?
Gemäß bisherigen Erfahrungen nicht bzw. nur mit riesigem Aufwand. Dafür bräuchtest du 2 IP-Adressen und müsstest die Applikationen bzw. deinen Mac dazu bringen auch beide für jeweils unterschiedliche Dinge zu verwenden. Das klingt jetzt einfacher als es umzustetzen ist ...
  • Ich hab ebenfalls noch gelesen, dass man bei der DS ein SSD Cache einrichten kann. D.h. ich müsste an die DS eine Expansioneinheit (z.B. DX213) hängen und dann nochmal 2 SSDs einbauen...Auch hier die Frage..."Bringt" das überhaupt etwas?
Nur wenn die Festplatte wirklich der Flaschenhals ist. Bei Werten < 100MB/s würde ich davon nicht ausgehen. Und mehr als ca. 105MB/s ist mit Gigabit nicht drin.

MfG Matthieu
 

chris_87

Benutzer
Mitglied seit
24. Apr 2010
Beiträge
53
Punkte für Reaktionen
0
Punkte
0
Hallo zusammen,

vielen Dank für die schnellen und vielen Antworten. Das hat mich jetzt von einigen sinnlosen Investitionen bewahrt:) Die RAM-Auslastung ist bei 15 % - d.h. selbst ein RAM-Update würde nicht wirklich etwas bringen. Dann arbeite ich eben aktuell schon mit dem Maximum was meine Konfiguration angeht...:)

Viele Grüße

Chris
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Wenn etwas möglich ist, dann sind das Protokolloptimierungen, aber da kenne ich mich im Mac-Kontext nicht aus. Unter Windows würde ich z.B. SMB2/Large MTU für CIFS empfehlen.
 

FortyTwo

Benutzer
Mitglied seit
03. Dez 2015
Beiträge
39
Punkte für Reaktionen
0
Punkte
0
Wenn etwas möglich ist, dann sind das Protokolloptimierungen, aber da kenne ich mich im Mac-Kontext nicht aus. Unter Windows würde ich z.B. SMB2/Large MTU für CIFS empfehlen.

Ich weiss nicht, ob das zielführend ist. Es ist einfach keine gute Idee große oder sogar sehr große Arbeitsdateien über eine LAN-Verbindung zu laden. Bei mir können einzelne Photoshop-Dateien schon mal mehrere 100 MB groß sein. Auf meinen Clients (alle mit SSDs ausgestattet) kann ich diese Dateien mit Pi mal Daumen 500 MB/sec laden. Liegen die Dateien aber auf der NAS, dann bin ich auf 100 MB/sec beschränkt, egal wieviel RAM die NAS hat, oder ob dort SSDs eingebaut sind. Und auch mit Protokolloptimierungen werd ich den Flaschenhals LAN-Port nicht erweitern können. Ja selbst wenn Link-Aggregation zwischen einem Client und der NAS funktionieren WÜRDE, wären doch nur max.180 MB/sec drin.
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Es steht außer Frage, dass lokales Arbeiten auf einer SSD deutlich schneller ist. Wenn aber ein NAS-basierter Workflow gewünscht wird - und so steht es hier im Thread -, können Protokolloptimierungen spürbare Performanceverbesserungen bringen.
 

frankyst72

Benutzer
Mitglied seit
01. Jun 2015
Beiträge
1.959
Punkte für Reaktionen
8
Punkte
58
Alternativer Vorschlag, bei QNAP gibt es ein NAS mit zusätzlicher Thunderbolt-Schnittstelle, d.h. Du kannst den Mac direkt daran anschließen und dann mit der Performance von lokalen Platten damit arbeiten. Aber das gute Stück kostet ein bisschen was.

Aber ansonsten bleibt der Flaschenhals das GBit-LAN. Hier gibt es natürlich auch noch Alternativen mit 10 GBit-LAN. Ich habe mir aber sagen lassen, dass solche Netzwerkkarten und passende Switche recht teuer sind. Natürlich würdest Du auch eine DS mit entsprechenden Anschluss benötigen.

Es ist halt alles eine Frage des Geldes gegenüber Nutzen.
 

FortyTwo

Benutzer
Mitglied seit
03. Dez 2015
Beiträge
39
Punkte für Reaktionen
0
Punkte
0
Es steht außer Frage, dass lokales Arbeiten auf einer SSD deutlich schneller ist. Wenn aber ein NAS-basierter Workflow gewünscht wird - und so steht es hier im Thread -, können Protokolloptimierungen spürbare Performanceverbesserungen bringen.

Mein Ansatz ist ein anderer. Anstatt an einem schlechten Workflow herumzudoktern, um hier und da ein paar MB/sec herauszukitzeln, schlage ich die Umgehung des eigentlichen Problems vor. Das ist zwar nicht so herausfordernd und spannend, aber im Ergebnis oft wesentlich effizienter. ;-)
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Finde ich ja auch nicht verkehrt, aber es gibt durchaus Gründe für einen NAS-Workflow, die Du dabei außer Acht läßt. Da finde ich den Vorschlag von Frank adäquater. Wir sollten das dem TO überlassen, genügend Vorschläge gibt es jetzt ja.
 

FortyTwo

Benutzer
Mitglied seit
03. Dez 2015
Beiträge
39
Punkte für Reaktionen
0
Punkte
0
Finde ich ja auch nicht verkehrt, aber es gibt durchaus Gründe für einen NAS-Workflow, die Du dabei außer Acht läßt. Da finde ich den Vorschlag von Frank adäquater. Wir sollten das dem TO überlassen, genügend Vorschläge gibt es jetzt ja.

Der TO will sein bestehendes System aufrüsten und ihm wird empfohlen stattdessen gleich ein völlig neues NAS zu kaufen?! - Sehr adäquat! ;-)

Vergessen darf man dabei auch nicht, dass Thunderbolt-Kabel maximal 3 Meter lang sind und nicht gerade billig, dafür aber sehr empfindlich sind. Ich habe für ein 2 Meter-Kabel 50 Euro hingelegt. Aber die fallen wenig ins Gewicht, wenn man bedenkt, dass ein Thunderbolt-NAS von QNAP schlappe 700,- Euro kostet.

Mein Vorschlag hingegen beschleunigt das Laden der Files um den Faktor 4 bis 5 und kostet dabei keinen Cent. Und meiner Meinung nach gibt es keinen sinnvollen Workflow große Arbeitsdateien über das LAN zu laden, es sei denn man hat einen Thin Client. Aber das wiederum schliesst das Arbeiten mit Adobe-Produkten (wie vom TO angegeben) völlig aus.
 
Zuletzt bearbeitet:

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Dass Du Dir keinen netzwerkbasierten Workflow vorstellen kannst, wundert mich, aber es geht ja nicht um uns beide. Ist er notwendig, wäre 10GE eine optimale Lösung, die allerdings derzeit mit erheblichen Investitionen einher ginge. Ich warte auf bezahlbare Lösungen und werde bei Verfügbarkeit sicher zuschlagen. So könnte es beim TO auch sein. Wer weiß, was in den nächsten Jahren in Sachen 19GE passieren wird. Insofern finde ich den Vorschlag einen Gedanken wert.

Ohne netzwerkbasierten Workflow ist Thunderbold eine sehr sinnvolle Option, die auch mit Investitionen einher ginge, wenn auch geringeren als für 10GE.

Ohne Präzisierung des TOs kommen wir hier aber nicht weiter.
 

FortyTwo

Benutzer
Mitglied seit
03. Dez 2015
Beiträge
39
Punkte für Reaktionen
0
Punkte
0
Dass Du Dir keinen netzwerkbasierten Workflow vorstellen kannst, wundert mich, (...)

Selbstverständlich kenne ich netzwerkbasierte Workflows. Ich benutze diese sogar bei meinen Photoshop-Projekten. Nichts desto trotz ist es durchaus legitim bei Performanceproblemen nicht nur auf die Hardwareumgebung zu schauen, sondern eben auch die Sinnhaftigkeit und Effizienz des aktuellen Workflows zu hinterfragen.

Ohne Präzisierung des TOs kommen wir hier aber nicht weiter.

Meiner Meinung nach hat der TO seinen Workflow ausreichend beschrieben, um die eigentliche Ursache für sein Performanceproblem zu erkennen. Die aktuelle RAID 10-Konfiguration des TO dreht wahrscheinlich jetzt schon Warteschleifen, um die vom Client angeforderten Daten durch den LAN-Port zu quetschen. Warum also das NAS noch weiter optimieren?!
 
Zuletzt bearbeitet:

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Auf die aktuell möglichen Optimierungen bin ich bereits eingegangen. Die Präzisierung bezieht sich darauf, ob sich der aktuelle Workflow in der von Dir vorschlagenen Weise ändern läßt oder nicht. Die Diskussion zwischen uns beiden ist redundant und insofern überflüssig.
 

FortyTwo

Benutzer
Mitglied seit
03. Dez 2015
Beiträge
39
Punkte für Reaktionen
0
Punkte
0
Auf die aktuell möglichen Optimierungen bin ich bereits eingegangen.

Und ich wollte lediglich anmerken, dass die von Dir vorgeschlagenen Optimierungen dem TO a) mit seiner aktuellen Konfiguration in keinster Weise weiterhilft (Protokolloptimierungen) oder b) nur durch teure Neuanschaffungen zu realisieren wären (Thunderbolt, bzw. 10GB-LAN).

Die Diskussion zwischen uns beiden ist redundant und insofern überflüssig.

Das trifft auf gefühlte 80% aller Diskussionen in einem Forum zu. Aber ohne diese "überflüssigen" Diskussionen wäre so gut wie jedes Forum mausetot. Aber ich stimme für diesen Thread zu, die Argumente sind jetzt mehrfach ausgetauscht, daher e.o.d.
 
Zuletzt bearbeitet:

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Bei vielen Foren ist das richtig, in diesem liegst Du mit "80%" meiner Erfahrung nach weit daneben. Wir heben den Schnitt allerdings gerade an. :p Und wenn Du Dich mit Protokolloptimierungen unter Mac OSX auskennst, dann ist es toll, dass Du das ausführst. Ich kann es nur für Windows beurteilen, und da kann es einiges bringen.
 
Zuletzt bearbeitet:

FortyTwo

Benutzer
Mitglied seit
03. Dez 2015
Beiträge
39
Punkte für Reaktionen
0
Punkte
0
Die DS-Konfiguration des TO (RAID 1+0) ist doch auch ohne "Protokolloptimierungen" schon zu schnell für den Flaschenhals LAN-Port, egal ob unter Windows, Linux oder OSX. Was willst Du da mit "Protokolloptimierungen" noch erreichen? - Ich versteh es nicht.
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.915
Punkte für Reaktionen
2.363
Punkte
829
Das ist ganz einfach: Mit SMB1 beispielsweise bekommst Du bei einer SSD mit 500 MB/s Durchsatz beim Transfer 4GB großer Videos vielleicht 85 MB/s über ein GE. Protokolloverhead kommt immer _nach_ dem Quell-IO-Subsystem, ist doch ganz logisch. Mit SMB2 werden daraus dann 110 MB/s.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat