Synology SSD Cache wann Sinnvoll?

Computerbaron

Benutzer
Mitglied seit
20. Jul 2017
Beiträge
91
Punkte für Reaktionen
0
Punkte
6
Guten Mittag zusammen,

ich wollte generell mal Erfahrungen und Meinungen zum Thema Synology SSD Cache austauschen.

Oft liest man, dass es nur lohnt wenn viele Benutzer gleichzeitig drauf zugreifen.
Für VMS habe ich jetzt gelesen das es teils bremsen soll?

Daher meine Frage, habt Ihr schon Erfahrung gemacht mit dem SSD Cache, falls ja lese und Schreibcache?
Wie sieht euer Anwendungsfall aus?
Bringt der Cache mehr Performance bei Apps wie beispielsweise Moments oder Photostation?
Werden Daten über SMB erst auf die SSD gespeichert und dann aufs RAID? Kann man so durch langsame Platten kompensieren?


Leider findet man im Verhältnis ziemlich wenig im Netz darüber.
Daher würde ich mich hier freuen wenn man sich hier ein bisschen mit Erfahrugnen austauschen kann :)

Ich überlege ob ich einen SSD Cache in meine 1821+ einbauen soll.
Auch wenn TLC nciht das beste und langlebigste ist dachte ich an:
https://geizhals.de/western-digital...00g2b0c-a2195073.html?hloc=at&hloc=de&hloc=pl
Viele Grüße und allen ein schönes Wochenende! :)
 

NSFH

Benutzer
Sehr erfahren
Mitglied seit
09. Nov 2016
Beiträge
4.096
Punkte für Reaktionen
571
Punkte
194
Viele Nutzer, kleine Dateien mit häufigen Zugriffen = Cache
Grosse Dateien, 1-2 Nutzer = kein Cache
Sinnvoller ist es immer SSDs als Datenspeicher denn als Cache zu nutzen.
DSM7 soll im Cacheverhalten schneller sein, dass muss sich aber erst beweisen.
 

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
3.017
Punkte für Reaktionen
428
Punkte
149
Gerade bei einer 1821+ sollte eigentlich genügend Platz da sein um SSD als Volumen und nicht als Cache zu verbauen. SSD Volumen bringt gerade bei kleinen Dateien, VMs, oder Datenbanken sehr viel. Cache bringt laut den meisten Nutzerberichten hier und eigenen Erfahrungen nur sehr selten was, manchmal kommt es sogar zu einer Verlangsamung. Zudem sorgt der Synology Cache Algorithmus dafür, dass die SSD schnell bei ihrer TBW grenze angelangt sind. Auch wenn man sie danach noch weiter nutzen könnte (was ct und viele andere Langzeittests gezeigt haben) weigert sich DSM die SSDs über der Schreibgrenze zu betreiben.

In Summe lass es.
 

Computerbaron

Benutzer
Mitglied seit
20. Jul 2017
Beiträge
91
Punkte für Reaktionen
0
Punkte
6
Vielen Dank euch für eure Einschätzung.
Das klingt ja alles nicht so gut, dasdie SSDs dann auch so schnell nicht mehr genutzt werden können und es so wenig bringt. Schade eigentlich
Hatte gehofft, dass man bei SMB zugriffen bei ausreichendem Cache Platz von Beispielsweise 500GB SSDs und man eine 2 GB Datei kopiert diese auf den Cache geschrieben wird und dann in das langsamere RAID hmm
 

Penthys

Benutzer
Mitglied seit
04. Jun 2020
Beiträge
250
Punkte für Reaktionen
53
Punkte
34
Sofern du noch 1 GB/s Netzwerk nutzt, ist dieses begrenzend und nicht die HDDs.
 

Simon88

Benutzer
Mitglied seit
09. Mrz 2015
Beiträge
190
Punkte für Reaktionen
15
Punkte
18
Solange man noch 1 GBit LAN hat, stimme ich allen zu, macht der Cache wenig Sinn.
Hier oder bei Reddit liest man z.B. positive Erlebnisse in Verbindung mit Plex, also die Übersichten schneller anzeigt werden. Liegt halt an den meist vielen Grafiken.
Wie schon gesagt, also wenn viele kleine Dateien, VMs oder Datenbanken im Spiel sind - kann eine SSD helfen.
Bei der Übertragung großer Dateien kann nichts schneller werden.

Stimme zudem zu, die SSD als Volume wäre besser als Cache - aber das scheint ja noch immer nicht offiziell per DSM unterstützt, nur mit Tricks per SSH. Oder weiß jemand mehr ?

Wenn man Cache verwendet, sollte man ihn aber ins richtige Verhältnis zur Volumegröße setzen, Synology empfiehlt:
https://www.synology.com/de-de/know..._Minimum_Size_I_Should_Consider_for_SSD_Cache
Was unter Umständen dann schon einmal schwierig wird, da es die Synology SSD nur bis max. 400 GB für z.B. die aktuelle 1621+ / 1821+ gibt.
Aber nachdem z.B. "SNV3400-400G" keinen Schutz vor Stromausfall bietet im Vergleich zum meist bei Geräten dieser Klasse nicht offiziell unterstütztem "SNV3500-400G" - wird man wohl oder übel auch andere hochwertige SSDs verwenden können / müssen.
Würde mich aber nicht wundern, wenn sich dann der gleiche Zirkus bezüglich der Warnmeldungen ergibt, wie beim RAM.

Bedenken sollte man deshalb auch, dass der Inhalt des Caches bei Stromausfall weg ist - sofern das Netzteil ausfällt, nützt auch keine USV.
Aus diesem Grund deaktivieren einige auch den Schreibcache der Festplatten und lasten das Netzwerk trotzdem 100% aus.
Manchmal muss man halt parallel kopieren, da ein Prozess alleine (z.B. robocopy) oft weit unterm Maximum bleibt.
Wenn überhaupt würde ich nur Lesecache nutzen.
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.649
Punkte für Reaktionen
5.820
Punkte
524
  • Like
Reaktionen: Benares

Agoraphobie

Benutzer
Mitglied seit
18. Nov 2022
Beiträge
26
Punkte für Reaktionen
7
Punkte
53
Hallo liebe Community,
ich würde hier gerne mal einhaken da ich seit gestern Besitzer der DS1821+ bin nach ungefähr 5 Jahren Qnap.
Mein Haupt Anwendungsfall ist defintitiv das schieben großer Datenmengen von PC zu NAS (Mein Netzwerk selbst ist fast vollständig auf 10G aufgebaut) Da ich mich jetzt für 8x18TB entschieden habe, habe ich ein Raid 6 gewählt....da ich finde das Raid 5 nicht mehr zeitgemäß ist bei Rebuildzeiten jenseits der 72H. Da kann einfach zuviel passieren. (Backup ist örtlich getrennt vorhanden JA...also bitte keine "Raid ist kein Backup" kommentare)

die NAS hängt an einer USV und ich würde jetzt eig gerne einen SSD Schreibcache haben wollen...das Lesen ist mir schnurz oder was hier alles beschrieben wird, Ich weiß das es auf Unraid und Truenas usw auch funktioniert einen SSD Cache als reinen WRITE-Cache zu haben. über die Folgen bin ich mir bewusst, also auch hier bitte keine Belehrungen. Ich will einfach die maximale Performance zwischen Client PC´s die ausschließlich 4.0 NVME im Einsatz. Die Daten sollen so schnell wie nur möglich über 10G rüber ins Nas geschaufelt werden so das ich weitermachen kann ohne das es ein Windows Explorer Fenster langsam vor sich her rödelt...

Es gibt ja sehr gute Videos von iDomiX den kennen sicher alle, und ich muss sagen seine Videos zu SSD Cache sind alle nicht mehr Zeitgemäß und beziehen sich auch nur auf 1GBIT Netzwerke. SSDS haben die Schreibleistung von 160TB mittlerweile weit überschritten...meine bestellte hat 1.8 PB.

So wie ich das sehe analyisiert die Synology Hot Data und legt diese auf der SSD ab bis sie irgendwann mal zu 100% gefüllt ist...das wäre ja dumm..in meinem Fall da ja dann kein Speicher mehr zum "Zwischenparken" von Daten da ist, oder habe ich hier einen Denkfehler.

Für virtuelle Maschinen habe ich eine eigene VMWARE Umgebung auf einem ESX mit SSD´s, das höchste der Gefühle wäre unter Umständen das ich mal eine größere DatenLun für eine VM auf dem ESX via ISCSI auf der NAS erstelle..aber halt eben reine Datenpartitionen keine Datenbanken oder irgendwas was viel IOPS benötigt, das ist nicht vorrangige Anspruch.

Ich habe mir bereits 2x SDDs bestellt, aber wenn der Cache irgendwann mit vermeintlichen Hot Data voll ist funktioniert ja der Writecache nicht mehr, sehe ich das richtig? Eventuell hat das mal jemand ausprobiert und ich spare mir etwas Zeit und nerven..

Auf der anderen Seite was kosten heutzutage 1-2TB SSDs..wäre jetzt auch kein Beinbruch aber wenn die Nachteile die Vorteile überwiegen kann man das ja mal rational vergleichen.

Über eine Antwort würde ich mich freuen

Mfg
 
Zuletzt bearbeitet:

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
3.017
Punkte für Reaktionen
428
Punkte
149
Wenn ich das lese ist Dein Hauptanwendungsfalls das sequentielle Schreiben. Da hilft meines Erachtens nach eigentlich nur RAM als Cache. Wenn Du mich fragst, würde ich in dem Fall den RAM auf Anschlag ausbauen (es gibt hierzuforum erfolgreiche Meldungen von 64 GB RAM, 32 GB geht auf jeden Fall).
 

schwarzwaldelch

Benutzer
Mitglied seit
29. Mai 2012
Beiträge
19
Punkte für Reaktionen
1
Punkte
3
Ich habe mir bereits 2x SDDs bestellt, aber wenn der Cache irgendwann mit vermeintlichen Hot Data voll ist funktioniert ja der Writecache nicht mehr, sehe ich das richtig? Eventuell hat das mal jemand ausprobiert und ich spare mir etwas Zeit und nerven..
Das ist kein Problem: Der Mechanismus beim Schreibcache funktioniert etwas anders. Eingehende Daten werden auf den Cache geschrieben. Sobald der Transfer angeschlossen ist und die DS im "Leerlauf" werden die Dateien auf die HDD synchronisiert. Alle Daten, die synchronisiert sind, können dann überschrieben werden, falls der Cache voll ist. Die Daten bleiben allerdings im Cache, damit sie beim Lesen ebenfalls verwendet werden können. Nur die Daten, die noch nicht auf die HDD synchronisiert sind, sind vor dem überschreiben gesichert. Somit ist der Cache nach kurzer Zeit immer zu 100% gefüllt.
 

Agoraphobie

Benutzer
Mitglied seit
18. Nov 2022
Beiträge
26
Punkte für Reaktionen
7
Punkte
53
Ixh werde es einfach ausprobieren, was kostet die Welt :D ich werde berichten wenn ich ein Fazit für mich gefunden habe.
 

weyon

Benutzer
Mitglied seit
17. Apr 2017
Beiträge
692
Punkte für Reaktionen
90
Punkte
48
  • Like
Reaktionen: plang.pl

Synchrotron

Benutzer
Sehr erfahren
Mitglied seit
13. Jul 2019
Beiträge
5.102
Punkte für Reaktionen
2.068
Punkte
259
Anmerkungen:

Der Grund, warum Schreibcaching nur mit 2 SSDs geht, liegt darin, dass beide als RAID 1 laufen, um Datenverluste auszuschließen. Lesecache braucht das nicht.

Liegt kein sinnvoller Anwendungsfall vor, zerschleisst man lediglich SSD-Zellen. Wenn die SSD das ab kann, macht man das sehr lange, ohne dass es die Sinnhaftigkeit erhöht.

Keine Ahnung, was für Monsterfiles du da bewegst - aber freier RAM wird automatisch als Schreib/Lesepuffer genutzt. Das ist bei 64GB eine Menge Puffer, der nicht verschleißt.

Verglichen damit ist der SSD-Cache eher langsam. Liegt am NVME-Typ und der Anzahl der Lanes, die verfügbar sind. Musst du mal selbst nachschauen für deine 1821+.

Die Videos von Dominik habe ich früher auch empfohlen, weil sie schön Stück für Stück durch führen. Nur macht er schon länger nichts mehr (auf das Video-Datum achten ! ) - daher für die aktuelle DSM-Version nicht mehr sinnvoll.
 

Agoraphobie

Benutzer
Mitglied seit
18. Nov 2022
Beiträge
26
Punkte für Reaktionen
7
Punkte
53
Also, ich habe es mir angesehen und fühle mich insgeheim ein wenig bestätigt...für meinen Anwendungsfall wird das also wohl nichts werden...ich benutze es wirklich als Datengrab und fast ausschlißelich als Streaming und Backupserver Plex Daten usw, die eigentlichen Server und Datenbanken liegen alle auf einem reinen FLASH-Storage auf meinem Dell Rackserver.

Ich hatte WIRKLICH nur ein Interesse SCHNELL mehrere hundert GB mit vollem 10G Speed auf die NAS zu schieben...wofür hat man sonst ein 10G Netzwerk.

Habe ich jetzt richtig verstanden das Synology standartmässig den RAM als Cache benutzt?? Das wusste ich nich tbzw ist mir nie aufgefallen, teste gleich mal ein wenig...wenn dem so ist würde ich sofort 64GB reinballern :D..

@Synchrotron ich schiebe halt täglich mehrere Terabyte von ClientPC <-> NAS - denke das ist nichts ungewöhnliches ka..
 

Synchrotron

Benutzer
Sehr erfahren
Mitglied seit
13. Jul 2019
Beiträge
5.102
Punkte für Reaktionen
2.068
Punkte
259
Nun ja, jeder wie er mag.

Welchen Sinn es macht, jährlich etwa ein Petabyte an Daten (mehrere Terrabyte täglich * 365) zwischen einem ClientPC und einem NAS zu bewegen, muss jeder selbst wissen.

Das Thema Arbeitsspeicher kannst du dir selbst anschauen. Der als Puffer genutzte Bereich wird als „Zwischenspeicher“ ausgewiesen.

Mir hat mein Wissen um meine Ungeduld gereicht, um jetzt auf 10 GbE zu gehen. Jou, macht Spaß …
 

Agoraphobie

Benutzer
Mitglied seit
18. Nov 2022
Beiträge
26
Punkte für Reaktionen
7
Punkte
53
Welchen Sinn es macht, jährlich etwa ein Petabyte an Daten (mehrere Terrabyte täglich * 365) zwischen einem ClientPC und einem NAS zu bewegen, muss jeder selbst wissen.

Das klingt so negativ..das ist eben was so anfällt bei dem was ich tue..und da ich mir keinen 50TB NVME Storage holen will bzw das nicht wirtschaftlich ist ziehe ich die Daten halt auf die Workstation bearbeite sie dort und schiebe sie wieder zurück..? Ist das so ungewöhnlich..und wenn ja dann kann es jedem auch egal sein.
 
  • Like
Reaktionen: faxxe

Agoraphobie

Benutzer
Mitglied seit
18. Nov 2022
Beiträge
26
Punkte für Reaktionen
7
Punkte
53
Ich habe mich jetzt tatsächlich gegen den SSD Cache entschieden.
Ich muss sagen...bei einer besseren CPU als ARM oder Celeron und mehr als 6 Platten im Raid 6 schafft die NAS auch so ihre 10GB Connection fast durchgehend bei großen Dateien, und bei kleinen Dateien hilft wirklich der "RAM-Cache".

Für einen fast reinen Fileserver also wirklich on Point ausreichend.
und selbst für alles andere wäre noch genug Luft.
 

DS1819plus

Benutzer
Mitglied seit
09. Nov 2020
Beiträge
98
Punkte für Reaktionen
29
Punkte
24
@Agoraphobie:
Ich habe die gleichen Gedanken gehabt (… was kostet die Welt :)). Meine Übertragungsrate liegt bei 1150GB/s, mehr wird der Cache wohl auch nicht herausholen. Heute wird die WD Red SN700 1TB für 76 Euronen angeboten, aber es macht wirklich keinen wirklichen Sinn.
 

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.200
Punkte für Reaktionen
1.024
Punkte
224
ich schiebe halt täglich mehrere Terabyte von ClientPC <-> NAS - denke das ist nichts ungewöhnliches ka..
Von was für Daten reden wir dann da? Wahrscheinlich doch Filme oder Bilder oder beides? Ich wüsste sonst bei mir daheim nicht, wie ich auf solche Datenmengen komme (nicht als Kritik gemeint!).
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat