DSM 6.x und darunter Synology DS 1819+ DSM langsam nach Festplattenschaden

Alle DSM Version von DSM 6.x und älter

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
14.044
Punkte für Reaktionen
6.054
Punkte
569
Ich dachte du kommst wieder ins DSM?
 

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
admin@ZK-Server:/volumeUSB1$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sda5[0] sdg5[6] sdh5[7] sdf5[5] sde5[4] sdd5[3] sdb5[1]
27315312192 blocks super 1.2 level 5, 64k chunk, algorithm 2 [8/7] [UU_UUUUU]

md3 : active raid1 sdg6[0] sdh6[1]
7811854208 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda2[0] sdb2[1] sdd2[3] sde2[4] sdf2[5] sdg2[6] sdh2[7]
2097088 blocks [8/7] [UU_UUUUU]

md0 : active raid1 sda1[0] sdb1[1] sdd1[3] sde1[4] sdf1[5] sdg1[6] sdh1[7]
2490176 blocks [8/7] [UU_UUUUU]

unused devices: <none>
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
14.044
Punkte für Reaktionen
6.054
Punkte
569
Ok, kein Sync zu sehen und sdc fehlt im Raid.
Puhh, du müsstest jetzt die Reparatur anstoßen, normal +über das DSM, müsste aber auch über ssh gehen.
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
14.044
Punkte für Reaktionen
6.054
Punkte
569
poste mal die Ausgabe: mdadm --detail /dev/md2
 

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
Die frage ist, ob das nicht erreichbare DSM und die nichterreichbarkeit des Volume und Share damit zusammenhängt. Eigentlich sollte das ja auch (im degenerierten Statu) weiterlaufen. Und wenn ich mir anschaue, wie die DS aktuell läuft, dann bezweifel ich dass der Rebuild noch zu meinen Lebzeiten fertig wird.
 

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
/dev/md2:
Version : 1.2
Creation Time : Mon Oct 3 19:54:38 2022
Raid Level : raid5
Array Size : 27315312192 (26049.91 GiB 27970.88 GB)
Used Dev Size : 3902187456 (3721.42 GiB 3995.84 GB)
Raid Devices : 8
Total Devices : 7
Persistence : Superblock is persistent

Update Time : Thu Jan 25 01:43:04 2024
State : clean, degraded
Active Devices : 7
Working Devices : 7
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

Name : ZK-Server:2 (local to host ZK-Server)
UUID : 5d68d44b:62b1b4f8:41947447:e12f1219
Events : 71754

Number Major Minor RaidDevice State
0 8 5 0 active sync /dev/sda5
1 8 21 1 active sync /dev/sdb5
- 0 0 2 removed
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 85 5 active sync /dev/sdf5
7 8 117 6 active sync /dev/sdh5
6 8 101 7 active sync /dev/sdg5
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
14.044
Punkte für Reaktionen
6.054
Punkte
569
Oha, OP am offenen Herzen.
Also es läuft kein Rebuild.
Die neue HDD ist eingebaut?
 

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
Soweit ich weis muss man denn rebuild und das hinzufügen der Ersatzplatte im DSM machen (ist länger her seit das notwendig war, daher weis ich das nicht mehr genau) und da komme ich nicht rein.
Die DS taucht in der Fritzbox auf, über SSH komme ich rein und Synology Finder findet sie.
Aber DSM möchte nicht, daher konnte ich bisher kein Rebuild anstoßen (sollte das nicht automatisch passieren)

Ja, ist getauscht und es sollte die Platte 3 / SDC (HDD3: Serial Number: WL20V6B3) sein.
 

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
Ergänzung: zumindest wusste ich bis eben nicht, dass das auch über SSH möglich ist und war mir ehrlich gesagt nicht sicher, wie überhaupt der Status ist und wollte erst mal warten, ob heute Morgen das DSM wieder zu erreichen ist.
 
Zuletzt bearbeitet von einem Moderator:

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
14.057
Punkte für Reaktionen
3.871
Punkte
488
Puh, so fit bin ich da leider auch nicht, da wissen andere sicherlich mehr. Aber sdc also Platte 3) fehlt definitiv in allen Raids.

Zur Erklärung:
md0 ist das Raid1 mit dem DSM über allen Platten in der 1. Partition jeder Platte, md1 dito als Swap in der 2. Partition.
md2 und md3 sind ein Raid5 bzw. Raid1, die dann wohl per LVM als SHR zusammengefasst werden. Vermutlich sind Platte 7 und 8 (sdg, sdh) größer als die anderen. Die Zahlen hinter sda-sdg sind jeweils die Partition der Platte.

Eine solche Reparatur läuft nicht automatisch an, die muss man schon manuell anstoßen, normalerweise im DSM. Die Frage ist, wieso du nicht auf den DSM kommst.

Wenn ich z.B. hier so lese, könnte evtl.
Code:
mdadm --manage /dev/md0 -a /dev/sdc1
um erstmal md0 zu reparieren. Aber bitte vorher mit "sudo -i" auf root umschalten um volle Rechte zu haben. Und hinterher die Ausgabe von /proc/mdstat" nochmal posten. Dann sehen wir weiter.
 

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
Ich bin zwar nicht zum allerersten mal mit SSH unterwegs und ich weis ein paar Grundlegende Sachen, aber bin alle andere als geübt.

Auf den von dir vorgeschlagenen code kommt:

Code:
admin@ZK-Server:/volumeUSB1$ sudo -i mdadm --manage /dev/md0 -a /dev/sdc1
Password:
mdadm: Cannot find /dev/sdc1: No such file or directory

Ich glaube so war es gedacht:

Code:
admin@ZK-Server:/volumeUSB1$ sudo -i mdadm --manage /dev/md0 -a /dev/sdc
mdadm: /dev/sdc is larger than /dev/md0 can effectively use.
       Add --force is you really want to add this device.

Jetzt Stellt sich mir nur die frage, ob das mit SHR so korrekt ist bei der fehlermeldung?

Edit: Und ist "Add" korrekt?
ich will das Volume damit ja nicht unbedingt erweitern, sondern das bestehende Laufwerk ersetzen.
Nur damit ich hier nicht mehr kaputt als gut mach... 🙈
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
14.057
Punkte für Reaktionen
3.871
Punkte
488
Vorsicht, nicht rumspielen!
Wenn es /dev/sdc1 noch nicht gibt, ist die Platte /dev/sdc noch nicht partitioniert. Schau mal mit "ls /dev/sdc*" was es da gibt und vergleiche es mit z.B. "ls dev/sda*"

Edit: und schau auch mal mit "fdisk -l /dev/sdc" zur Partitionierung im vergleich mit z.B. "fdisk -l /dev/sda" sagt.

PS: das "sudo" kannst du dir sparen, wenn du einmalig "sudo -i" und einmalig nochmal das Passwort eingibst. Dann bist do root und kannst die weiteren Befehle direkt eintippen.
 
Zuletzt bearbeitet:

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
admin@ZK-Server:$ ls /dev/sda
/dev/sda

admin@ZK-Server:$ ls /dev/sdc
/dev/sdc

admin@ZK-Server:$ ls /dev/sdd
/dev/sdd



Vergesst das, hier:

admin@ZK-Server:/$ ls /dev/sda*

/dev/sda /dev/sda1 /dev/sda2 /dev/sda5


admin@ZK-Server:/$ ls /dev/sdc*

/dev/sdc
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
14.057
Punkte für Reaktionen
3.871
Punkte
488
Also ist /dev/sdc da, aber noch nicht partioniert. Hast du mein "Edit" bez. fdisk gelesen?
Sag mir nochmal schnell, wie groß die 8 Platten sind bevor ich suchen muss.
 

JP3112

Benutzer
Mitglied seit
20. Nov 2020
Beiträge
42
Punkte für Reaktionen
2
Punkte
8
Nein, hatte ich übersehen, hier das Ergebnis:

admin@ZK-Server:/$ sudo fdisk -l /dev/sdc
Password:
Disk /dev/sdc: 10.9 TiB, 12000138625024 bytes, 23437770752 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

admin@ZK-Server:/$ sudo fdisk -l /dev/sda
Disk /dev/sda: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: A5EF8211-34D5-49E4-A6F5-C374C234ED20

Device Start End Sectors Size Type
/dev/sda1 2048 4982527 4980480 2.4G Linux RAID
/dev/sda2 4982528 9176831 4194304 2G Linux RAID
/dev/sda5 9453280 7813830239 7804376960 3.6T Linux RAID

Platten 3, 7 und 8 sind 12TB Segate Exos, der Rest sind 4TB WD Reds
 
Zuletzt bearbeitet von einem Moderator:

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
14.044
Punkte für Reaktionen
6.054
Punkte
569
Boah, über die Konsole wird das kompliziert und fehleranfällig.
poste mal die Ausgabe: mdadm --detail /dev/md3
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
14.057
Punkte für Reaktionen
3.871
Punkte
488
Jetzt gilt es, das Partitionierungsschema zu finden, das deine anderen Platten haben. Schau auch noch die anderen Platten durch.

Code:
root@DS1522:~# synopartition --list
Index  Version  1-Bay  Size of Root/Swap/Reserved Partition
   1.        1    YES    273042/  787185/ 273042 sectors (  133/  384/ 133 MB)
   2.        2    YES   4980087/ 1044225/ 257040 sectors ( 2431/  509/ 125 MB)
   3.        3    YES    530082/  787185/  16002 sectors (  258/  384/   7 MB)
   4.        5    YES    722862/  594405/  16002 sectors (  352/  290/   7 MB)
   5.        6    YES   4980087/ 4192965/ 257040 sectors ( 2431/ 2047/ 125 MB)
   6.        7    YES   4980480/ 4194304/ 262144 sectors ( 2431/ 2048/ 128 MB)
   7.        8    YES   4980480/ 4194304/ 260352 sectors ( 2431/ 2048/ 127 MB)
   8.        9    YES  16777216/ 4194304/ 262144 sectors ( 8192/ 2048/ 128 MB)
  10.        1     NO   1574307/  787185/ 273105 sectors (  768/  384/ 133 MB)
  11.        2     NO   4980087/ 1044225/ 257040 sectors ( 2431/  509/ 125 MB)
  12.        6     NO   4980087/ 4192965/ 257040 sectors ( 2431/ 2047/ 125 MB)
  13.        7     NO   4980480/ 4194304/ 262144 sectors ( 2431/ 2048/ 128 MB)
  14.        8     NO   4980480/ 4194304/ 260352 sectors ( 2431/ 2048/ 127 MB)
  15.        9     NO  16777216/ 4194304/ 262144 sectors ( 8192/ 2048/ 128 MB)
  19.      100    YES  41943040/ 4194304/      0 sectors (20480/ 2048/   0 MB)
  20.      100     NO  41943040/ 4194304/      0 sectors (20480/ 2048/   0 MB)
Es könnte m.E. 7,8,13 oder 14 sein, vermutlich aber eher 13 oder 14 wegen der Spalte 1-Bay.

Dann kann man mit
Code:
synopartition --part /dev/sdc <Index>
/dev/sdc auch so partitionieren.

Ich weiß, das ist eine Operation am offenen Herzen und ich schwimme auch gerade etwas ;)
 
Zuletzt bearbeitet:

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
14.044
Punkte für Reaktionen
6.054
Punkte
569
Ja, das wird ein Höllenritt!
es müssen erst aller Partitionen angelegt werden auf sdc, deshalb die Frage nach md3
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat