Raid 6 degraded - wie muss ich genau vorgehen?

Status
Für weitere Antworten geschlossen.

elstoked

Benutzer
Mitglied seit
22. Jun 2020
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Hallo zusammen

Mein Raid 6 ist "degraded" und ich muss es wohl reparieren. Die Situation sieht so aus:

Screenshot 2020-06-22 at 15.24.45.png

Screenshot 2020-06-22 at 15.26.54.png

Dazu folgende Anmerkungen und Fragen:

1) Ich bin mir ziemlich sicher, dass die Konfiguration des NAS wie folgt war: Raid 6 mit den Festplatten 1 bis 6, und die Festplatte 7 als Hot Spare. Nun wird mir keine Hot Spare Disk mehr angezeigt, dafür das Drive 7 als "crashed". Warum?

2) Drive 3 und Drive 6 werden nur noch als "initialized" angezeigt und scheinen nicht mehr Teil des RAIDs zu sein - warum?

3) Kann ich die Daten noch retten und wie muss ich dabei vorgehen? 3 neu gekaufte 6TB-Festplatten sind unterwegs.

4) Warum zeigt es mir an, dass ich 2 Festplatten reparieren muss? "Crashed" ist nur eine, zwei sind aber nur noch "initialized" statt "healthy" - also muss ich doch eine oder drei ersetzen?

Danke für eure Hilfe.
 

elstoked

Benutzer
Mitglied seit
22. Jun 2020
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Hier noch weitere Screenshots:

Drive 1, 2, 4 und 5 sehen so aus:

Screenshot 2020-06-22 at 15.39.49.png

Drive 3 so:

Screenshot 2020-06-22 at 15.41.29.png

Drive 6 so:

Screenshot 2020-06-22 at 15.42.29.png

Drive 7 so:

Screenshot 2020-06-22 at 15.43.10.png
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
Sieht so aus als ob die mitlaufende Hotspare eben auch Defekte bei ihrer Einbindung zeigt und zwei weitere eben ebenfalls Probleme haben.
Entweder haste Glück und bei der Einbindung der kommenden Ersatzplatten läuft alles klar. Dann ist alles wie vorher.
Oder du hast Pech und es taucht noch ein weiterer Fehler auf und das Volume ist hinüber.
 

elstoked

Benutzer
Mitglied seit
22. Jun 2020
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Danke für diese Antwort. Die wichtigsten Daten habe ich auf einem Back-up. Falls ich den Rest verliere, kann ich damit leben - kein Problem.

Ich verstehe aber immer noch nicht, warum 2 Disks plötzlich nur noch als "initialized" anstatt "healthy" angezeigt werden und nicht mehr Teil des RAIDs sind.

Und wie muss ich denn nun vorgehen? Zuerst mal die Disk 7 ersetzen? Oder die Disk 3 und 6? Und wie?

Edit: Mein Plex funktioniert komischerweise nach wie vor, ich kann alles - oder das meiste (?) - noch abspielen. Bis jetzt keine Fehlermeldungen.
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
Die Platte 7 war Hot-Spare und wurde als Failing markiert als sie fehlerhafte Sektoren produzierte als sie ins RAID für eine andere ausgefallene Platte eingebunden werden sollte.
Platte 3+6 sind nur noch initialized weil sie fehlerhafte Sektoren (bad sector count) produziert haben und dabei aus dem RAID entfernt wurden.

Aus dem ursprünglichen RAID-6 mit 6 Platten sind also noch 4 vorhanden. Das ist die Minimalanzahl in der das RAID-6 noch ohne Redundanz weiterläuft.
Fällt noch eine Platte aus, dann geht das Volume komplett offline und dann kannst auch nichts mehr mit Plex abspielen.
Das ist das Einmal-Eins zu RAID und Redundanz.
 

elstoked

Benutzer
Mitglied seit
22. Jun 2020
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Danke. Ich weiss, dass vier Festplatten die Minimalanzahl für ein RAID-6 sind. Fragen habe ich trotzdem noch.

Warum sagt mir das NAS, dass die Festplatten 3 und 6 gesund sind, obwohl ich sie ersetzen muss?

Warum haben die Festplatten 3 und 6 den Status "initialized" aber nicht den Status "failing" wie die Festplatte 7?

Warum zeigt es mir an, dass ich 2 Festplatten reparieren muss, obwohl offenbar 3 defekt sind?

Wie ersetze ich eine Festplatte, die als gesund angezeigt wird?

Und wie muss ich nun vorgehen? Zuerst die Disk 7 ersetzen? Oder die Disk 3? Die Disk 6? Und wie?
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
Den Status "Healthy" oder "Failing" kannst in der Pfeife rauchen, da die Kriterien nicht öffentlich sind wonach dies eingestuft wird.
Der wird auch noch in vielen Fällen "Healthy" sein, wenn die Platte 2h später nicht mehr eingeschaltet werden kann.
Das einzige was du hast sind die Rohdaten-SMART Werte der Platten die du nachsehen und deine eigenen Schlüsse ziehen kannst.

Über "initialized" und "failing" kann ich nur spekulieren. Normal ist erster Status wenn die DSM Partition und Swap auf dem Laufwerk geschrieben sind und aktiv (RAID-1 über alle internen Platten). Eventuell eben "Failing" weil es gar nicht erst gelungen ist diese Hot-Spare-Ersatzplatte einzubinden.

Kannst ja ein Ticket bei Synology aufmachen dazu, vielleicht bekommst sogar eine qualifizierte Antwort.

Das RAID-6 hatte nur 6 Platten also musst du auch nur 2 Platten reparieren. Die Hot-Spare wird da nicht mitgezählt.

Platte tauschen: Platte raus, neue Platten rein, reparieren lassen. Völlig egal welchen Status die Syno für die Platten anzeigt.

Alles außer 1,2,4,5 raus und zwei neue Platten rein und im Speichermanager reparieren lassen.
Alternativ den Speicherpool unter Datenverlust löschen und mit den neuen Platten komplett neu anlegen lassen.
 
Zuletzt bearbeitet:

elstoked

Benutzer
Mitglied seit
22. Jun 2020
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Super, das erklärt einiges. Vielen Dank.

Kann ich die Platten 3, 6 und 7 alle gleichzeitig austauschen, im laufenden Betrieb? Oder muss ich eine nach der anderen austauschen und reparieren?

Wie gross ist die Chance, dass das RAID überlebt? Es wird ja so viele Lese- und Schreibvorgänge geben, dass die Chance gross ist, dass noch eine Platte abkackt, richtig? Ich weiss zum Glück, dass RAID kein Backup ist, habe die wichtigsten Daten gesichert. Von daher sehe ich dem Restore gelassen entgegen.
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
Ich nehme mal an deine DS ist Hot-Swap fähig, kannst sie aber auch ausschalten, wenn dir das lieber ist.
3+6 müssten gleichzeitig gehen. Hot-Spare wird normal erst nachträglich zugeordnet.

Persönlich würde ich die siebte Platte gar nicht einbauen. Maximal einen lese/Schreibtest extern, dass sie zumindest OK geliefert wurde und dann erst im Notfall wirklich einbauen
 

elstoked

Benutzer
Mitglied seit
22. Jun 2020
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Ja, die DS1815+ ist How-Swap fähig.

Du würdest also gar keine Hot Spare verwenden, habe ich das richtig verstanden? Was spricht denn dagegen?
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
Ja, hast du richtig verstanden.

Zum einen, weil die Festplatte (siehst ja an deinen Betriebsstunden) mit läuft und mit altert. In deinem Fall 25% der Zeit.
Ein richtiges Standby würde erst im Fehlerfall anlaufen. Das bekommt man aber vermutlich nur bei Hardware-RAID-Controllern, die auch die Stromzufuhr kontrollieren können.
Die Ausfallwahrscheinlichkeit beim Rebuild steigt also schon alleine über die Zeit an.
Bezahlt sein muss die Platte auch.
Und wenn eh regelmäßig jemand am System vorbei kommt, der eine Platte tauschen könnte ist das auch nicht Mission-critical, dass sie sofort in den Rebuild wechselt wenn eine Platte rausfliegt (RAID ist ja für die Systemverfügbarkeit gedacht).

Aber da kommen wir jetzt schon fast zu den Philosophien. (Passt zu dem "Sinnhaftigkeit von RAID" oder ähnlichem Thread von neulich hier im Forum).
In größeren Speicheranwendungen kommen ja oft gar keine klassischen RAIDs mehr vor.
Da wird die Festplatte zum Wegwerfspeicher degradiert der sie ist und die Redundanz/Verfügbarkeit wird über Cluster-Dateisysteme und andere Maßnahmen umgesetzt
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat