Consumer SSDs statt DataCenter SSDs?

martin234

Benutzer
Mitglied seit
24. Jul 2014
Beiträge
13
Punkte für Reaktionen
0
Punkte
0
Hallo zusammen,
ich möchte ein Rs1619xs+ mit 4x 1 TB SSDs ausstatten. Die von Synology empfohlenen SSDs sind entweder nicht (mehr) lieferbar oder kosten 2-3x so viel wie eine hochwertige Consumer SSD.

Wie sind Eure Erfahrungen - müssen es diese DataCenter SSDs sein oder funktioniert das ganze auch mit Consumer SSDs, z.B. https://www.amazon.de/Samsung-MZ-76...s=samsung+1tb&qid=1568876129&s=gateway&sr=8-1

mit welchen SSDs habt ihr gut Erfahrungen gemacht?

Viele Grüße
Martin
 

ClearEyetemAA55

Benutzer
Mitglied seit
14. Apr 2018
Beiträge
272
Punkte für Reaktionen
4
Punkte
18
Funktionieren wird das mit Sicherheit. Wie gut, das hängt von dem Workload ab. Den hast du nicht umrissen, warum?
 

martin234

Benutzer
Mitglied seit
24. Jul 2014
Beiträge
13
Punkte für Reaktionen
0
Punkte
0
Hi,
Danke für deine Antwort. Laufen soll eine Ubuntu VM mit einem Praxis-Verwaltungsprogramm auf das 4 Clients zugreifen werden. Dann noch ein bisschen file Sharing zwischen den Clients.
 

Firebl

Benutzer
Mitglied seit
01. Okt 2018
Beiträge
5
Punkte für Reaktionen
0
Punkte
0
Alternativ bieten sich Intel D3S4510 960GB an, diese sind garnicht so viel teuerer und haben Powerloss Protection.
 

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
6.057
Punkte für Reaktionen
1.855
Punkte
254
Ich habe eine Samsung Evo 860 mit 1TB drin und bisher null Probleme.
TBW => 600 TB

Bei dem vom User "Firebl" genannten Intel-Modell liegt die TBW beim 6-fachen. Dafür kostet sie halt auch etwas mehr.
 

martin234

Benutzer
Mitglied seit
24. Jul 2014
Beiträge
13
Punkte für Reaktionen
0
Punkte
0
Hallo,
ich habe jetzt die RS1619xs+ mit 4x Kingston SEDC500R960G SSD im RAID5 konfiguriert. Das lief jetzt 3 Wochen problemlos. Auf der Maschine läuft ein Ubuntu mit einer Praxissoftware. Jetzt gab es gestern und vorgestern Nacht die Fehlermeldung "Retry error occurs on disk [/dev/sdd]." und dann "Laufwerk 4 auf RS1619xs+ wird beim Hochfahren des Synology NAS neu verbunden".
Schreibcache ist ausgeschaltet. Die Smartwerte der Platten sind in Ordnung, auch sonst keine Anzeige von Fehlern. Nur die VM funktioniert nicht mehr sauber, nachdem das ganze passiert ist, Das Dateisystem geht in einen Read Only Mode:
/dev/sda1 on / type ext4 (ro,relatime,errors=remount-ro,data=ordered)

Habt ihr eine Idee, woran das liegen kann? und warum fängt das RAID 5 nicht solche Fehler vernünftig ab?
 

NSFH

Benutzer
Sehr erfahren
Mitglied seit
09. Nov 2016
Beiträge
4.093
Punkte für Reaktionen
570
Punkte
194
1. Hätte ich bei Einsatz im Gegensatz zu meinen Vorschreibern im betrieblichen Umfeld niemals zu einer normalen SSD geraten, denn alle Tests sagen eindeutig, dass deren Lebensdauer in einem NAS begrenzt ist.
2. Setze ich nach Empfehlung von Synology auf der gleichen Maschine (allerdings mit Erweiterungseinheit) 2 kleine Samsung SSDpro ein, auf denen nichts anderes läuft als die VM. Da hat es noch nie Probleme gegeben.
Woran jetzt dein Problem liegt ist schwer zu sagen, aber die Fehlerursdache ist eine der SSDs. Ggf mal die Steckverbindung zu dieser SSD überprüfen.
Wenn dir die Erweiterungseinheit fehlt rate ich dir dein System zu splitten, entweder auf 2xSHR1 mit je 2 SSDs oder 3+1, dann hat die VM keine Ausfallsicherheit.
 

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
6.057
Punkte für Reaktionen
1.855
Punkte
254
Habt ihr eine Idee, woran das liegen kann?
Checke mal die Smartwerte der SSD.
Überprüfe den richtigen Sitz der SSD.
Bau sie aus und prüfe die Kontakte.

alle Tests sagen eindeutig, dass deren Lebensdauer in einem NAS begrenzt ist.
Du hast bis heute nicht den Unterschied zwischen der Verwendung einer SSD als Cache oder als Volume erkannt. Aber vielleicht ist das wie mit dem Router und dem Switch, wo du behauptet hast, dass der Router im Mittelpunkt eines Netzwerkes steht und partout nicht glauben wolltest, dass es der Switch ist.

Da hat es noch nie Probleme gegeben.
Bei einer Testgruppe von 2 ist diese Aussage wertlos.

aber die Fehlerursdache ist eine der SSDs
Absolutismus ist zwar deine Spezialität, aber eng verwandt mit dem Dilettantismus.

Ggf mal die Steckverbindung zu dieser SSD überprüfen
Hier könntest du eine Spur gefunden haben. Der Fehler könnte auch in einer Lötstelle in der DS oder SSD liegen.

rate ich dir dein System zu splitten, entweder auf 2xSHR1 mit je 2 SSDs oder 3+1, dann hat die VM keine Ausfallsicherheit.
Erst sagst du, dass er total schlechte und falsche SSDs hat und nun soll er zur Problemlösung einfach alles umbauen. Damit baut man das Problem nur um, aber findet und beseitigt es nicht.
 

NSFH

Benutzer
Sehr erfahren
Mitglied seit
09. Nov 2016
Beiträge
4.093
Punkte für Reaktionen
570
Punkte
194
Das Problem wäre nicht so tiefgreifend wenn VM und normale Nutzung der RS getrennt wären. Irgendwie logisch oder?
Wenn du schon Erbsen zählen willst dann lese erst mal richtig bevor du schreibst: Ich habe ihm zuu etwas geraten und nicht gesagt dass er es tun soll.
Wie immer von dir nur Korinthen kacken......Hauptsache man irgendwo dran rummäkeln.
 

martin234

Benutzer
Mitglied seit
24. Jul 2014
Beiträge
13
Punkte für Reaktionen
0
Punkte
0
oha.... danke. Habe die SSD ausgebaut und schaue nun erneut. Klar kann man VM und FileSharing trennen. Aber aus meiner Sicht sollten Kingston DataCenter SSDs (es sind keine Consumer!), die 3 Wochen laufen sowohl im RAID 5 als auch im Raid 1 durchhalten.
 

servilianus

Benutzer
Mitglied seit
26. Dez 2017
Beiträge
898
Punkte für Reaktionen
244
Punkte
63
Ich habe genau die gleiche Konstellation wie @martin234 (nehme auch an, dass es dasselbe Patienten-VErwaltungsprogramm ist - Epikur?) Läuft bei mir auch in einer VM via Ubuntu (und zwar in der DS3018xs mit 32 GB Ram, Zugriff von 6 Clients, 24/7 in Betrieb, 4 HDDs, RAID 10).

Ich weiss, dass der Zugriff auf SSDs, auf denen eine virtuelle Maschine läuft, viel schneller/geschmeidiger ist als bei HDDs. Aber: Wie sieht es mit der Langlebigkeit/Datensicherheit/Stabilität bei SSDs aus? Unser Patientenverwaltungsprogramm (dessen Datenbank natürlich auf allen möglichen Wegen gesichert wird) darf keinesfalls korrumpiert werden. Daher hatte ich mich (bislang) entschieden, es auf den von Synology empfohlenen HDDs laufen zu lassen (Seagate IronWolf).

Oder gibt es, bzgl. Datensicherheit (Lese/Schreibprozesse) da keine Unterschiede (mehr)? Es wäre natürlich fatal, wenn eine SSD mit einem für uns so zentralen Programm wesentlich früher abschmieren würde, als eine HDD. Klar, eine HDD hat eine Mechanik, die irgendwann auch den Geist aufgibt - aber: Würdet ihr in einem Produktivsystem mit häufigen Zugriffen auf viele kleine Dateien (Datenbankabfragen) SSDs bevorzugen, oder doch auf HDDs setzen? (die Zugriffsgeschwindigkeit ist für uns jetzt nicht so entscheidend).
Als "Zwischenlösung" habe ich zumindest eine SSD als reinen Lesecache eingebaut (und nicht als Schreibcache, wegen der bekannten TBW-Problematik).
 
Zuletzt bearbeitet:

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
3.017
Punkte für Reaktionen
428
Punkte
149
Solange die BTW Grenze nicht deutlich überschritten ist, zeigen eigentlich alle Langzeit Tests, dass SSD in Sachen Langlebigkeit nicht schlechter als HDD sind. Eine Ausnahme sind Platten die wirklich lange Zeit stromlos sind. Für den Safe sind SSD im Gegensatz zu HDD nicht geeignet.
Zum Thema Ironwolf. Die Empfehlung für diese Platten beruht auf einer Vertriebspartnerschaft der beiden Firmen und nicht auf einer besseren Eignung der Platten.

PS Nachtrag bezüglich Korrumpierung sehe ich auch eher den Vortei, bei SSD, da hier schleichende Fehler eher selten sind. Wie bei großen c't SSD Langzeittest 1/2017 getestet, fielen eigentlich alle SSD weit nach der TBW Grenze aus, dann aber total.
 

servilianus

Benutzer
Mitglied seit
26. Dez 2017
Beiträge
898
Punkte für Reaktionen
244
Punkte
63
Besten Dank für die Info!
 

NSFH

Benutzer
Sehr erfahren
Mitglied seit
09. Nov 2016
Beiträge
4.093
Punkte für Reaktionen
570
Punkte
194
Nach einem knappen Jahr und Extremnutzung (>70 Nutzer) mit vielen kleinen Dateien laufen die Samsung Pro SSDs immer noch klaglos.
Inzwischen bietet WD auch Server SSDs an zu einem guten Preis. Ist vielleicht eine Alternative.
SSD als Cache allerdings ist ein Graus!
Wegen Datensicherheit, diese VM läuft auf einem SHR1 mit 2 SSDs, da mache ich mir eigentlich keine Sorgen. Wiederherstellung aus einem Backup klappt auch extrem schnell.
Da hoffe ich auf DSM7, denn da wird die Nutzung der VM und auch Backup nochmal extrem vereinfacht.
 

servilianus

Benutzer
Mitglied seit
26. Dez 2017
Beiträge
898
Punkte für Reaktionen
244
Punkte
63
Danke, die Server SSDs schaue ich mir an.
 

linuxdep

Benutzer
Mitglied seit
02. Jan 2009
Beiträge
584
Punkte für Reaktionen
11
Punkte
38
HI, zwar schon etwas älter und Staub drauf, aber ich bin gerade auf der Suche nach einer SSD, hatte die

Crucial BX500 2TB 3D NAND SATA 2,5 Zoll​

ins Auge gefasst. hat die schon wer im Einsatz? wollte zwei davon als Raid laufen lassen und 2 4TB HDD dann auch als raid für die Datenablage. Auf die SSD's sollen dann VM und Docker Container.... ein Umzug weg von Synology auf proxmox kostet mich jetzt zu viel Zeit, denke das wäre eine schnelle Lösung. Hatte was gelesen, einige SSD's werden wohl recht heiß...
 

Jim_OS

Benutzer
Sehr erfahren
Mitglied seit
05. Nov 2015
Beiträge
5.068
Punkte für Reaktionen
2.258
Punkte
259
Ich will es mal so sagen: Die BX500 würde ich mal zu spielen oder testen einsetzen, oder in einem PC oder Notebook der/das ggf. mal ein paar Stunden am Tag im Betrieb ist, ab nicht wirklich im produktiven Dauerbetrieb in einem NAS. Da würde ich aktuell - bei 2 TB - z.B. eher auf die WD Red SA500 setzen - auch wenn die natürlich 'ne Ecke mehr kosten.

Ja auch SSD wie die WD Red SA500 (oder Ähnliche) können defekt gehen, aber es wird schon seine Gründe haben warum Crucial die BX500 nur mit 3 Jahren Garantie (MX500 = 5 Jahre) und mit geringeren TBW-Werten angibt.

Wenn die SDD im NAS wenig beansprucht würde dann wäre das ggf. noch akzeptabel, aber gerade darauf laufende VM und Docker Anwendungen dürften dann wohl für permanenter Last und somit Beanspruchung, auf den SSD sorgen.

VG Jim
 

linuxdep

Benutzer
Mitglied seit
02. Jan 2009
Beiträge
584
Punkte für Reaktionen
11
Punkte
38
OK, unter 200€ das Teil... so viel teurer ist die wirklich nicht. Wobei, wenn ich die als raid betreibe und eine ausfällt, ist es halt so. Mal schauen...habe gesehen, hab noch eine kleine M.2 hier rumliegen, die könnte ja mal zuerst in den Cache Schacht versenkt werden...und mal testen.
 

Jim_OS

Benutzer
Sehr erfahren
Mitglied seit
05. Nov 2015
Beiträge
5.068
Punkte für Reaktionen
2.258
Punkte
259
In meiner DS720+ steckt im Moment auch nur eine billige 250 GB SSD die ich hier noch herumliegen hatte. :) Wie gesagt zum spielen und testen für VMs erst einmal vollkommen ok. Für einen produktiven Dauereinsatz würde ich die halt nicht nutzen.

VG Jim
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat