SSD- Cache aufräumen

Status
Für weitere Antworten geschlossen.

mrewge

Benutzer
Registriert
17. März 2022
Beiträge
5
Reaktionspunkte
0
Punkte
1
Hallo, leider habe ich bisher keine Antwort auf meine Frage gefunden:

Ich verwende in meiner DiskStation DS1819+ zwei M.2 SSD Karten (jeweils 1TB) im RAID 1.
Dieser Cache ist nun seit einigen Tagen voll (930 von 931 GB belegt).

Meine Frage:
Wirft die DiskStation nicht mehr benötige Daten in diesem Cache irgendwann von selbst raus oder muss ich den Cache erst immer wieder entfernen wenn er voll ist und neu konfigurieren?

Die DiskStation wird als Schnittplatz für mehrere Macs verwendet, es wird also immer wieder mit neuen Daten auf dem NAS gearbeitet (und die fertigen Projekte dort gespeichert).

Danke!
 
Herzlich Willkommen im Forum!
Das heißt du hast Lese- und Schreibcache konfiguriert?
Dann ist normal, dass der Cache voll ist. Denn nicht verwendeter Speicher bedeutet ja in der Situation rausgeschmissenes Geld. Wenn neue Daten geschrieben werden, überschreiben diese dann eben die alten Daten. Da muss man nichts neu konfigurieren. Verhält sich mit Arbeitsspeicher ähnlich. Wenn das OS lange genug läuft, ist der auch "Voll-gecached".
 
immer wieder mit neuen Daten
Ihr lest/schreibt also vorwiegend sequentiell viele sehr große Dateien?
Und selten werden die selben Dateien öfters gelesen?

Für sowas ist dieser Cache eh ungeeignet.


* viel Kleinenkram schnell random schreiben
* Vieles öfters lesen
 
Ja, für die größeren Daten ist er eher ungeeignet, wird aber auch zur Buchhaltung etc. genutzt. Der Grund für den Einbau waren in erster Linie die nicht allzu hohen kosten für die beiden SSD Karten und der Wunsch, Daten "schneller" auf die DiskStation zu kopieren. Wenn wir von einem Dreh kommen, laden teilweise mehrere Macs mehrere hundert GB Daten gleichzeitig auf den NAS. In Zukunft wollen wir auch immer mehr 10Gbit Netzwerkkarten einsetzen.

Bei diesen Szenarien soll sich der SSD Cache schon auszahlen, wenn ich alles richtig gelesen und verstanden habe..

* Vieles öfters lesen
Das passiert schon, denn die Schnittsoftware greift ja ständig auf ein und dieselben Clips auf dem NAS zu, solange an dem Projekt gearbeitet wird.
 
Herzlich Willkommen im Forum!
Das heißt du hast Lese- und Schreibcache konfiguriert?
Dann ist normal, dass der Cache voll ist. Denn nicht verwendeter Speicher bedeutet ja in der Situation rausgeschmissenes Geld. Wenn neue Daten geschrieben werden, überschreiben diese dann eben die alten Daten. Da muss man nichts neu konfigurieren. Verhält sich mit Arbeitsspeicher ähnlich. Wenn das OS lange genug läuft, ist der auch "Voll-gecached".
Danke! Das habe ich mir auch bereits so gedacht, aber wollte nochmal sicher gehen :)
 
Bei einem „günstigen“ Preis für die SSDs (OK, wer Macs einsetzt und deren SSD-Preise im Ohr hat, hat zum Wort „günstig“ vermutlich einen anderen Bezugspunkt): Wichtig ist, dass es hoch zyklenfeste SSDs sind. Normale SSDs sind innerhalb weniger Monate durch und werden von der DS dann verworfen.
 
Ja, günstig ist vielleicht der falsche Ausdruck, aber es ist ja ein Unterschied ob ich mir Privat die DiskStation so einrichte oder für ein (kleines) Unternehmen, welches damit (indirekt) sein Geld verdient. Die beiden SSDs sind nun seit knapp Anderthalbjahren im Einsatz, noch laufen sie :) Aber ich habe mich auch bewusst für welche entschieden, die von Synology offiziell unterstützt und empfohlen werden.
 
Zuletzt bearbeitet von einem Moderator:
Du siehst ja, wieviel Prozente noch übrig sind.
Meine beiden 1TB-SSD halten bei aktueller Nutzung wohl auch noch 10 Jahre.

Theoretisch sollte der Cache "große" geschriebene Datenmengen direkt auf die Platte weiterleiten ... nur keine Ahnung wie die erkennen wann was "groß" ist, da der Cache auf Blocklevel arbeitet (nicht auf Dateiebene).

Wenn du es schaffst mehr Daten in/durch den Cache zu jagen, vor allem beim Schreiben, dann ist der Cache nutzlos, weil er praktisch alles sofort wieder auf die Platte schreiben muß, weil kein Platz mehr da ist und der LeseCache wird ebenfalls geleert (durch SchreibCache belegt).

Ich hatte das Problem, dass HyperBackup nahezu ALLE Daten durch den Cache gelesen hat, was natürlich bremst und due CacheSSD sinnlos abnutzt,
wenn das 8TB "einmal" auf die 1TB-SSDs geschrieben und sofort davon gelesen werden ... weil Cache voll, wurde alles sofort wieder überschrieben, womit die DS Alles von den Platten gelesen, zwei mal auf die beiden SSD geschrieben, davon gelesen und zum Backup kopiert, anstatt direkt von der HDD zum Backup.
 
Genau diese Probleme sehe ich auch. Wir haben uns für die DS1819+ entschieden, da wir diese mit 8 12TB Platten ausstatten konnten und somit effektiv (durch RAID) auf ca. 48TB Speicherplatz kommen. Welcher nach Anderthalbjahren nun zu 60% belegt ist. Sollte dieser dann irgendwann bei 80-90% Auslastung ankommen, sichern wir die alten Daten auf entsprechende externe Festplatten und stellen diese in den Schrank. Da wir für das ganze Setup, vor allem für die 12TB Platten (wir haben zusätzlich noch eine eine weitere DiskStation mit 4 Einschüben und jeweils 12TB Platten, welche über HyperBackup als Backup dient) viel Geld ausgegeben haben, haben die beiden SSD Karten nicht mehr großartig das Budget gesprengt. Ich wollte einfach von vornherein ein System, welches optimal ausgestattet ist. Ob das nun Sinn macht oder nicht, die verbauten SSDs, darüber bin ich mir auch nicht immer im klaren. Gibt es Möglichkeiten das irgendwie rauszufinden / zu testen?
 
Zuletzt bearbeitet von einem Moderator:
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat