cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sdb5[2]
1948683264 blocks super 1.2 [2/1] [U_]
md1 : active raid1 sda2[0]
2097088 blocks [2/1] [U_]
md0 : active raid1 sdb1[2] sda1[1]
2490176 blocks [2/1] [_U]
[=====>...............] recovery = 25.8% (643840/2490176) finish=0.4min speed=64384K/sec
unused devices: <none>
cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sdb5[2]
1948683264 blocks super 1.2 [2/1] [U_]
md1 : active raid1 sdb2[1] sda2[0]
2097088 blocks [2/2] [UU]
md0 : active raid1 sdb1[0] sda1[1]
2490176 blocks [2/2] [UU]
unused devices: <none>
Wenn ich dazu noch was fragen darf: Über der Tabelle steht, dass es kritisch ist, wenn ein Wert unter dem Schwellwert liegt. Die Werte in der Spalte "Wert" sind aber alle über den Schwellwerten, oder gucke ich falsch?Die sieht auch nicht viel besser aus (ID 1, 5 und 196).
mdadm /dev/md2 --manage --add /dev/sda5
mdadm: add new device failed for /dev/sda5 as 3: Invalid argument
mdadm /dev/md2 --manage --add /dev/sdb5
mdadm: Cannot open /dev/sdb5: Device or resource busy
Device Boot Start End Sectors Size Id Type
/dev/sda1 2048 4982527 4980480 2.4G fd Linux raid autodetect
/dev/sda2 4982528 9176831 4194304 2G fd Linux raid autodetect
/dev/sda3 9437184 3907015007 3897577824 1.8T f W95 Ext'd (LBA)
/dev/sda5 9453280 3906822239 3897368960 1.8T fd Linux raid autodetect
Der Tipp war von mir. Was hat der TE zu verlieren? Backup ist offensichtlich vorhanden. Wenn sich das SHR im laufenden Betrieb reparieren lässt, erspart es das Rückspielen des Backups und die Nachjustierung der Einstellungen. Wenn es nicht klappt, ist auch nichts verloren, weil beide Platten sowieso getauscht werden müssen. Im laufenden Betrieb würde ich es deshalb machen, weil DSM da nicht neu gestartet werden muss, was für mich beim Zustand der Platten das höhere Risiko wäre.Ich hatte noch nie eine defekte Platte, aber ich würde die nicht im laufenden Betrieb austauschen, obwohl das auch gehen soll.
It's SHR with multiple volume support.Komische Partitionierung, hab ich noch nie gesehen
Device Boot Start End Sectors Size Id Type
/dev/sata1p1 8192 16785407 16777216 8G fd Linux raid autodetect
/dev/sata1p2 16785408 20979711 4194304 2G fd Linux raid autodetect
/dev/sata1p3 21241856 1953523967 1932282112 921.4G f W95 Ext'd (LBA)
/dev/sata1p5 21257952 1953331231 1932073280 921.3G fd Linux raid autodetect
Device Start End Sectors Size Type
/dev/sata1p1 8192 16785407 16777216 8G Linux RAID
/dev/sata1p2 16785408 20979711 4194304 2G Linux RAID
/dev/sata1p5 21257952 31251569727 31230311776 14.6T Linux RAID
Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.
Als Dankeschön schalten wir deinen Account werbefrei.