DS918+ - SSD Cache hat TBW-Grenze erreicht und sind jetzt unbrauchtbar

Matthieu

Benutzer
Mitglied seit
03. Nov 2008
Beiträge
13.222
Punkte für Reaktionen
88
Punkte
344
Und wenn Synology die gecachten Daten, ähnlich dem ECC beim RAM, mit einer Prüfsumme verifizieren würden, dann wäre auch bei einem vorzeitigen Ausfall der Datenverlust minimiert.
ECC bedeutet nicht zwingend, dass Fehler korrigiert werden können und wenn sie erkannt werden ist es in diesem Fall schon zu spät. ECC RAM ist meist nur ein kurzzeitiger Zwischenspeicher. Der SSD Cache arbeitet schon etwas langfristiger. Außerdem wäre der Overhead für die CPU wohl enorm. IMHO keine wirkliche Alternative.
Eventuell kommt der gewünschte Schalter ja mit DSM 7. Mal abwarten.

MfG Matthieu

EDIT: Und als Verbesserungsvorschlag bei Synology via Ticket einreichen wen es betrifft!
 

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
337
Punkte
123
Nein, korrigiert nicht, aber es wird zumindestens mit hoher Wahrscheinlichkeit ein Fehler sofort entdeckt.
Ohne ECC/Prüfsummen kann ja über längere Zeit sich ein Fehler einschleichen und bleibt womöglich erstmal unentdeckt, bis er zufällig "wichtige" Daten zerstört.

Ich hatte z.B. einen Bug im USB 3.0, wo bei einer gewissen Datenrate ab und an mal 8 Byte falsch waren.
Fällt bei Filmen und hochauflösenden Fotos kaum auf aber z.B. in einer ZIP oder einem Programm knallt es schnell mal. Nur fällt es eben nach dem Kopieren nicht sofort auf, sondern manchmal erst Jahre später.

Und jetzt stell dir mal vor ein Seicherblock oder gar nur ein Byte oder Bit im RAM oder der SSD ist schon lange vor Ablauf der TWB kaputt, aber du merkst es lange nicht und es schleichen sich überall winzige Fehler ein.
 

s24-asm

Benutzer
Mitglied seit
13. Sep 2009
Beiträge
79
Punkte für Reaktionen
0
Punkte
6
Schade ist ja, dass es nur ein Lesecache ist, ...
Mit zwei SSD hat man Schreib-/Lesecache.

Was kann man denn hiervon halten? Endurance: 400 TBW. 5 Jahre Garantie...

Entscheidend ist anscheinend, ob dieses vermaledeite Flag "critical warning" gesetzt wird. Vielleicht macht das nicht jeder Hersteller?
 

1007

Benutzer
Mitglied seit
16. Dez 2014
Beiträge
13
Punkte für Reaktionen
3
Punkte
3
Hallo
Kann es sein das ich jetzt auch betroffen bin ?
Heute meine DS918+ neu gestartet. Nach dem Neustart kam folgenden Meldung unter Benachrichtigungen:
"SSD-Cache 1 auf SynologyDS918 hat sich verschlechtert"
Im Protokollcenter steht :
"SSD Cache [1] has degraded [2/2], please repair it. Automatic protection mechanism has been activated"
Den Speichermanager kann ich nicht benutzen weil erst einmal ca 5 Minuten geladen wird und dann
zeigt er absolut garnichts an , keine Uebersicht , kein Volumen etc.
Gibt eine Moeglichkeit ueber die Kommandozeile etwas zu machen.
Nebenbei gesagt das NAS laeuft sonst ohne Probleme.
 

bitrot

Benutzer
Mitglied seit
22. Aug 2015
Beiträge
878
Punkte für Reaktionen
0
Punkte
36
Schade, dass in die DS918+ nicht die längeren M.2 22110 SSDs reinpassen. Denn Enterprise SSDs mit Power Loss Protection (wichtig, gerade für Cache Einsätze) gibt es als M2 Steckkarten nur in diesem längeren Format. Diese sind auch nicht unbedingt viel teurer als vergleichbare Consumer M2 SSDs, nur für solche Einsatzzwecke entwickelt und deutlich performanter auf Dauer und langlebiger.
 

s24-asm

Benutzer
Mitglied seit
13. Sep 2009
Beiträge
79
Punkte für Reaktionen
0
Punkte
6
Ich hab 'n Ticket bei Samsung eröffnet. Ich kann die betroffenen SSD ans Servicecenter schicken. Dazu einen Haufen Printouts von Tests, Screenshots etc. Sie prüfen dann den Fall...
 

cmdr_tom

Benutzer
Mitglied seit
24. Jul 2010
Beiträge
208
Punkte für Reaktionen
2
Punkte
24
Hatte ich auch gemacht. Es kamen refurbished Module zurück. Die hatten von Hause aus bereits einen TBW Wert von 40. Daher hab ich die nicht mehr verwendet.
 

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
337
Punkte
123
Mit der Erklärung von Synology hab ich grad ein winziges Problemchen.
Die schalten die SSDs ja vorzeitig ab, da es sein könnte, dass laut Hersteller sie bald kaputt gehen? Und das um die Datensicherheit zu gewährleisten.

ABER, beim Schreib-/Lese-Cache werden die beiden SSDs doch im RAID 1 betrieben (bei mehreren geht auch RAID 5 oder 6),
also nicht eine SSD für Lesecache und die andere für den Schreibcache, sondern aus Sicherheitsgründen wird beim Schreibzugriff mindestens eine weitere SSD per RAID dem einen gemeinsamen Cache zugeschaltet.

Damit wäre es doch dann vollkommen egal ob und wann eine SSD nun wirklich kaputt geht und ich sehe eigentlich keinen Grund das vorzeitig abschalten zu müssen?



Bzw. das mit dem Cache ist ja eigentlich eine Standardfunktion des Linux ... schaltet da nun eigentlich Synology oder Linux den Cache ab?
Falls doch Linux, dann hätte ich erwartet, dass schon länger viel mehr solcher Probleme aus der Linuxwelt zu hören wären.


Schade, dass in die DS918+ nicht die längeren M.2 22110 SSDs reinpassen.
Platz dürfte da unten genug sein. Die Plastehaken entfernen und weiter weg wieder anschrauben, aber rein bekommst die SSDs dann nur während das Gehäuse ganz offen ist.
 
Zuletzt bearbeitet:

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
3.016
Punkte für Reaktionen
428
Punkte
149
Zuletzt bearbeitet:

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
337
Punkte
123
Die Zuatzmodule/Erweiterungen hängen bei Synology fast immer am PCI-Express,
dazu zählt auch die SATA/SAS-Backplane, wo dann die internen HDDs faul dran abhängen.

PCIe 1x , PCIe 4x oder hier eben auch mal ein Mini-PCI-Express.
 

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
337
Punkte
123
MiniPCIe Half-Size ist auch nur halb so lang, aber eben nicht halb so breibt.

Alles streng geheim und wird bestimmt mit falschen Steckleisten verschleiert. X'D
http://pinoutguide.com/Slots/mini_pcie_pinout.shtml
Die Pins des kleinen Teils werden hier eh nicht benötigt.
Hmmm, halb passt auch nicht ganz, denn es sind 40 statt 36 Kontakte ... außer die äußeren 2 Paar sind nicht genutzt, bzw. auf den Steckkarten ist dort nichts, außer ein Freiraum.
Aber 40 Pins würde dennoch passen, denn es gibt genug PCIe-Erweiterungen mit 40 Pins, auch wenn dort sonst immer Hirose 2DS-40 genutzt werden.
Und zu 99,995% versteckt sich ganz bestimmt ein PCIe darin.

Hey, hab auch noch nicht rausbekommen, was die anderen Stiftleisten sind.
Console-Port (6-Pin) und BIOS-Reset (3-Pin) sind ja noch erkennbar, bzw. der Erste wird sogar in der Doku erwähnt.
 

xdxoxkx

Benutzer
Mitglied seit
19. Okt 2017
Beiträge
10
Punkte für Reaktionen
0
Punkte
1
iDomiX hat das Thema auf Youtube kommentiert ...
https://www.youtube.com/watch?v=yvCFc0oh-2A

... allerdings nur so halb ...

Mein Kommentar dazu:

Sorry, schlechter Beitrag.

iDomiX hat sicherlich weit mehr Erfahrung mit Synology wie ich, aber dieses Video zeigt eigentlich nur, dass eine kritische Auseinandersetzung mit Problems des SSD Cache und der TBW-Grenze hier in der Öffentlichkeit umgangen wurde.
Sehr, sehr schade ...

Meine Erfahrung mit dem SSD Cache:
================================================================
Mir sind meine Samsung 256GB EVO Module ebefalls "gestorben", weil die Module die TBW-Grenze von 100TB erreicht wurden.
In der betroffenen DS918+ sind 4x WD RED 6TB Platten verbaut - soll die Lösung jetzt sein, auf Seagate zu wechseln? - Das ist wohl kaum günster, als neue SSD Module zu kaufen ...

Letzteres habe ich trotzdem getan und 2x Samsung 970 PRO 512 GB eingebaut (TBW-Grenze 600TB).
Ich habe einige Wochen ohne SSD Cache gelebt, der Unterschied ist insbesondere bei kleinen Datein oder auch Outlook pst signifikant und der Performance-Gewinn mit SSD ist unbestritten.

Auffälligkeiten mit dem "neuen" SSD Cache Samsung 970 Pro 512GB:
================================================================
Mit den neuen Modulen und einer Grenze von 600TBW sollte ich ja jetzt eigentlich sicher sein, rechnerisch ...
Aber es fällt jetzt folgenden auf:

Mit den "alten" Modulen lief der Cache im Speichermanager relativ schnell zu 100% voll (innerhalb von Stunden, 1-2 Tage).

Bei den "neuen" Modulen bin ich nach 16 Tagen bei nur 15% (!!!!) - der SSD Cache scheint sogar zu groß zu sein ... wie kann das sein?

Anscheinend wurde die Cache-Strategie von Synology verändert, was ich bereit vorher vermutet hatte.
In Verdacht stehen u.a. lokales/remote Backup bzw. fehlerhafte Umsetzung der Ausnahme von sequentiellem I/O.

Synology hat hier die Software angepasst, leider ist mir dazu keine Dokumentation bekannt.


Kritik an Synology:
================================================================
Es geht gar nicht, das bei Erreichen der TBW-Grenze die Module nicht mehr zu verwenden sind.
Mein Volume ist dadurch abgestürzt - schlimmer kann ein Ausfall eines Modules auch nicht sein.

Es gibt genügend Tests, dass die Module mehr als das 10x der TBW-Grenze vertragen.
Zeitgleich kann man Festplatten verwenden, egal wie alt diese sind - das ist einfach Willkür.

Die Kompatbilitätsliste war für unerfahrene Anwender fehlerhaft, da SSD Module mit geringer TBW Grenze zu schnell "verbraucht" waren.


Fragen oder weitere Kritik:
================================================================
Wurde die neue SSD-Strategie irgendwo dokumentiert? - ich konnte dazu nicht finden ...


Tipps:
================================================================
Die Module vertragen weit mehr als die TBW-Grenze.
"Gestorbene" SSD Module aus der Synolog kann man im folgenden Gehäuse weiter verwenden:

https://www.amazon.de/gp/product/B07M6Q3NB4/ref=ppx_yo_dt_b_search_asin_title?ie=UTF8&psc=1

Fazit:
================================================================
Mit dem akutellen Software-Stand macht die Verwendung von SSD Cache wieder Sinn.

Das ganze Thema wird von Synology allerdings extrem unprofessionell behandelt.
Selbst für Privatanwender war das ganze Thema grenzwertig ....
 

Kurt-oe1kyw

Benutzer
Sehr erfahren
Mitglied seit
10. Mai 2015
Beiträge
9.139
Punkte für Reaktionen
1.798
Punkte
314
Vielen Dank für deinen ausführlichen Praxisbericht und deinen Erfahrungen. Interessant finde ich vor allem deine Beobachtung, dass du jetzt nach 16 Tagen erst bei 15% bist. Dies im Zusammenhang mit der 600 TB TBW-Grenze sollte wieder eine akzeptable Laufzeit ermöglichen. Ich bin auf deine Langzeiterfahrungen dann später gespannt.
 

mb01

Benutzer
Mitglied seit
13. Mrz 2016
Beiträge
485
Punkte für Reaktionen
56
Punkte
28
Ich hab in meiner DS918+ (16GB RAM) seit knapp über einem Jahr auch zwei Samsung EVO 960 250GB drin, Laufzeit aktuell 6200h. Die DS ist auch nicht (mehr) ständig an und viel Last ist eigentlich auch nicht drauf.

Was mich wundert: Wenn ich im Speichermanager unter HDD/SSD schaue, wird mir bei beiden SSDs "erwarte Lebensdauer: 100%" angezeigt, von daher hatte ich mich immer gefreut bzw. schon etwas gewundert, warum ich anscheinend kein Problem habe. :rolleyes:

In meiner DS218+ werkelt eine SSD als Volume und da geht alle paar Wochen ein Prozentpunkt von der "erwarteten Lebensdauer" runter. Das hätte ich beim SSD Cache der DS918+ auch erwartet. Wenn ich bei den 960 EVOs in der DS918+ nach den SMART-Werten schaue, dann ist allerdings die "Percentage used" 23%, d.h. danach wäre ja gut ein Viertel "Abnutzung" vorhanden.

Bleibt bei euch die gleich vorne im Speichermanager präsentierte "erwartete Lebensdauer" auch stabil und nur das "Percentage used" in den Smart-Werten geht hoch? Dann wäre das ja durchaus auch als irreführend von Synology zu bezeichnen, dass man "erst im Kleingedruckten" die nötige Info findet .... und dann ist auch kein Wunder, dass Leute vom Ausstieg des SSD-Caches überrascht werden.
 

s24-asm

Benutzer
Mitglied seit
13. Sep 2009
Beiträge
79
Punkte für Reaktionen
0
Punkte
6
Auffälligkeiten mit dem "neuen" SSD Cache Samsung 970 Pro 512GB:
================================================================
Mit den neuen Modulen und einer Grenze von 600TBW sollte ich ja jetzt eigentlich sicher sein, rechnerisch ...
Aber es fällt jetzt folgenden auf:

Mit den "alten" Modulen lief der Cache im Speichermanager relativ schnell zu 100% voll (innerhalb von Stunden, 1-2 Tage).

Bei den "neuen" Modulen bin ich nach 16 Tagen bei nur 15% (!!!!) - der SSD Cache scheint sogar zu groß zu sein ... wie kann das sein?

Anscheinend wurde die Cache-Strategie von Synology verändert, was ich bereit vorher vermutet hatte.
In Verdacht stehen u.a. lokales/remote Backup bzw. fehlerhafte Umsetzung der Ausnahme von sequentiellem I/O.

Synology hat hier die Software angepasst, leider ist mir dazu keine Dokumentation bekannt.
Hm. Ich hab jetzt seit zwei Tagen 500 GB WD Black SN 750 drin und der Cache ist voll...
Unbenannt.PNG
Hab eine RMA von Samsung für die 960 EVO. Werden also wohl ersetzt.
 

s24-asm

Benutzer
Mitglied seit
13. Sep 2009
Beiträge
79
Punkte für Reaktionen
0
Punkte
6
Hab eine RMA von Samsung für die 960 EVO. Werden also wohl ersetzt.
Leider nein. Samsung hält die SSD für fehlerfrei. Sie wurden "vollständig formatiert und auf die Werkseinstellungen zurückgesetzt." Dazu hätte ich sie nicht einschicken müssen. Der Zustand "krtisch" ist natürlich unverändert und die SSD in der Syno (und z.B. auch unter ESXi 6.7) unbrauchbar. Samsung fordert "neue und eindeutige Beweise dafür, dass das Laufwerk immer noch fehlerhaft ist." Also "kritisch" mit dem entsprechenden SMART Attribut heißt bei Samsung nicht "fehlerhaft". Unter Windoof funktioniert es ja auch noch. :p Keine Kulanz daher.

Anbei der aktuelle Cache der neuen WDs.
Unbenannt.PNG
Mal sehen, wie lange die dann durchhalten. :confused: Als geschätzte Lebensdauer wird immer noch 100% angegeben (aber es sind ja auch erst zehn Tage...)
 

faraway

Benutzer
Mitglied seit
04. Mai 2018
Beiträge
34
Punkte für Reaktionen
0
Punkte
6
Ich betreibe meine DS218 mit zwei Samsung SATA SSD die z.Zt. Bei 96% liegen. Wenn die DS218 mit denen nicht mehr arbeiten will fliegt sie auf den Müll und die SSD bekommen ein neues Zuhause. Ich bin sprachlos ob der Arroganz von Synology. Ich werde Synology sicher nicht mehr empfehlen.
 

mgutt

Benutzer
Mitglied seit
14. Nov 2012
Beiträge
429
Punkte für Reaktionen
20
Punkte
18
Kann man die SMART Werte irgendeiner SSD nicht mit einem "Hack-Tool" oder so zurücksetzen? Hier hat zB jemand den Weg bei einer Seagate HDD beschrieben:
https://askubuntu.com/a/687455/227119
You only need simple rs232 to usb converter (uart to ttl) and a few cables attached to hdds diagnostic interfaces. (it's on the right side of sata port, 5 or 4 pins) You must conect RX TX and GND cables (and power cable of course :D) then power on HDD and connect to it with putty or hyperterminal (linux can connect with it's own terminal i guess) for example for seagate drives: for 7200.10 and older baud rate is 9600 for 7200.11 and newer is 38400

commands after connection hit CTRL + Z then type "/1" hit enter type "N1" hit enter when it finishes remove all cables and turn on HDD like normal to see changes :)

Vielleicht gibt es ja auch eine SSD wo man die SMART Werte über einen ähnlichen Weg zurückgesetzt bekommt. Dann könnte man die SSD bis zum Tod weiter quälen.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat