Hallo zusammen
Wir betreiben eine RS3411RPxs mit 10 x 4 TB und daran angeschlossen eine RX2111 mit 10 x 3TB und 2 x 2 TB. Auf der RS läuft derzeit DSM 4.2-3211.
Die Laufwerke der RS sind als SHM-Volume konfiguriert mit einem Hotspare.
Alle Platten der RX laufen als SHM-Volume (2), dort werden die Daten vom Volume 1 gesichert.
Vor 5 Tagen wurde das Volume 2 als Abgestürzt markiert. Zwei der Festplatten sind markiert als Status Abgestürzt, das Volume ist somit nicht benutzbar.
Die ausgefallenen Platten sind keine 2 Jahre alt, vom Typ HUA723030ALA640 und stecken in Bays 8 und 9. Ein SMART-Test sagt jedoch, die Platten seien "Normal".
Wir haben umgehend mit dem Support Kontakt aufgenommen. Dieser wollte ein Logfile von uns gesendet haben, was wir sofort erledigt haben. Seither haben wir von dort leider nichts gehört, auch auf Nachfrage nicht.
Jetzt sitzen wir hier mit unserem ausgefallenen Volume und haben für unsere 23TB Daten kein Backup seit mehreren Tagen.
Vor allem wundert uns, dass grad zwei Festplatten dieser Klasse auf einmal ausfallen. Dass diese Platten auch noch direkt benachbart sind, macht es nicht weniger komisch. Viel schlimmer für uns jedoch: kein Support.
Bei 23TB Daten möchten wir lieber nicht mit Google-Probier-Mal-Das-Lösungen hantieren und hätten gern professionellen Support.
Was sollen wir jetzt tun? Das Laufwerk einfach neu aufsetzen und hoffen, dass das nicht mehr auftritt? Warten bis Synology zufällig mal Zeit hat, sich um das Problem zu kümmern?
Wir sind für jede Anregung dankbar! Grüsse, ric.
Rack01> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md5 : active raid5 sdpb6[9] sdoc6[8] sdpa6[7] sdpc6[6] sdqa6[5] sdqb6[4] sdqc6[3] sdra6[2] sdrb6[1] sdrc6[0]
8790685056 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
md4 : active raid5 sda6[9] sdb6[8] sdc6[7] sdd6[6] sde6[5] sdf6[4] sdg6[3] sdh6[2] sdi6[1] sdj6[0]
8790685056 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
md3 : active raid5 sdpb5[21] sdoc5[20] sdpa5[19] sdpc5[18] sdqa5[17] sdqb5[16](E) sdqc5[15](F) sdra5[14] sdrb5[13] sdrc5[12] sdoa5[0] sdob5[1]
21436576128 blocks super 1.2 level 5, 64k chunk, algorithm 2 [12/11] [UUUUUUUE_UUU]
md2 : active raid5 sda5[19] sdb5[18] sdc5[17] sdd5[16] sde5[15] sdf5[14] sdg5[13] sdh5[12] sdi5[11] sdj5[10]
26329784832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[9] sde2[8] sdf2[7] sdg2[6] sdj2[3] sdi2[4] sdh2[5]
2097088 blocks [10/10] [UUUUUUUUUU]
md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3] sde1[4] sdf1[5] sdg1[6] sdh1[7] sdi1[8] sdj1[9]
2490176 blocks [10/10] [UUUUUUUUUU]
unused devices: <none>
-----
/dev/md3:
Version : 1.2
Creation Time : Tue Oct 2 19:28:50 2012
Raid Level : raid5
Array Size : 21436576128 (20443.51 GiB 21951.05 GB)
Used Dev Size : 1948779648 (1858.50 GiB 1995.55 GB)
Raid Devices : 12
Total Devices : 12
Persistence : Superblock is persistent
Update Time : Sat Oct 19 22:02:02 2013
State : clean, degraded
Active Devices : 11
Working Devices : 11
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : Rack01:3 (local to host Rack01)
UUID : 8af4a2fa:a1036d0c:e8462ee9:4f30056d
Events : 8469
Number Major Minor RaidDevice State
0 128 357 0 active sync /dev/sdoa5
1 128 373 1 active sync /dev/sdob5
20 128 389 2 active sync /dev/sdoc5
19 130 261 3 active sync /dev/sdpa5
21 130 277 4 active sync /dev/sdpb5
18 130 293 5 active sync /dev/sdpc5
17 131 421 6 active sync /dev/sdqa5
16 131 437 7 active sync /dev/sdqb5
8 0 0 8 removed
14 133 325 9 active sync /dev/sdra5
13 133 341 10 active sync /dev/sdrb5
12 133 357 11 active sync /dev/sdrc5
15 131 453 - faulty spare /dev/sdqc5
Wir betreiben eine RS3411RPxs mit 10 x 4 TB und daran angeschlossen eine RX2111 mit 10 x 3TB und 2 x 2 TB. Auf der RS läuft derzeit DSM 4.2-3211.
Die Laufwerke der RS sind als SHM-Volume konfiguriert mit einem Hotspare.
Alle Platten der RX laufen als SHM-Volume (2), dort werden die Daten vom Volume 1 gesichert.
Vor 5 Tagen wurde das Volume 2 als Abgestürzt markiert. Zwei der Festplatten sind markiert als Status Abgestürzt, das Volume ist somit nicht benutzbar.
Die ausgefallenen Platten sind keine 2 Jahre alt, vom Typ HUA723030ALA640 und stecken in Bays 8 und 9. Ein SMART-Test sagt jedoch, die Platten seien "Normal".
Wir haben umgehend mit dem Support Kontakt aufgenommen. Dieser wollte ein Logfile von uns gesendet haben, was wir sofort erledigt haben. Seither haben wir von dort leider nichts gehört, auch auf Nachfrage nicht.
Jetzt sitzen wir hier mit unserem ausgefallenen Volume und haben für unsere 23TB Daten kein Backup seit mehreren Tagen.
Vor allem wundert uns, dass grad zwei Festplatten dieser Klasse auf einmal ausfallen. Dass diese Platten auch noch direkt benachbart sind, macht es nicht weniger komisch. Viel schlimmer für uns jedoch: kein Support.
Bei 23TB Daten möchten wir lieber nicht mit Google-Probier-Mal-Das-Lösungen hantieren und hätten gern professionellen Support.
Was sollen wir jetzt tun? Das Laufwerk einfach neu aufsetzen und hoffen, dass das nicht mehr auftritt? Warten bis Synology zufällig mal Zeit hat, sich um das Problem zu kümmern?
Wir sind für jede Anregung dankbar! Grüsse, ric.
Rack01> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md5 : active raid5 sdpb6[9] sdoc6[8] sdpa6[7] sdpc6[6] sdqa6[5] sdqb6[4] sdqc6[3] sdra6[2] sdrb6[1] sdrc6[0]
8790685056 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
md4 : active raid5 sda6[9] sdb6[8] sdc6[7] sdd6[6] sde6[5] sdf6[4] sdg6[3] sdh6[2] sdi6[1] sdj6[0]
8790685056 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
md3 : active raid5 sdpb5[21] sdoc5[20] sdpa5[19] sdpc5[18] sdqa5[17] sdqb5[16](E) sdqc5[15](F) sdra5[14] sdrb5[13] sdrc5[12] sdoa5[0] sdob5[1]
21436576128 blocks super 1.2 level 5, 64k chunk, algorithm 2 [12/11] [UUUUUUUE_UUU]
md2 : active raid5 sda5[19] sdb5[18] sdc5[17] sdd5[16] sde5[15] sdf5[14] sdg5[13] sdh5[12] sdi5[11] sdj5[10]
26329784832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[9] sde2[8] sdf2[7] sdg2[6] sdj2[3] sdi2[4] sdh2[5]
2097088 blocks [10/10] [UUUUUUUUUU]
md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3] sde1[4] sdf1[5] sdg1[6] sdh1[7] sdi1[8] sdj1[9]
2490176 blocks [10/10] [UUUUUUUUUU]
unused devices: <none>
-----
/dev/md3:
Version : 1.2
Creation Time : Tue Oct 2 19:28:50 2012
Raid Level : raid5
Array Size : 21436576128 (20443.51 GiB 21951.05 GB)
Used Dev Size : 1948779648 (1858.50 GiB 1995.55 GB)
Raid Devices : 12
Total Devices : 12
Persistence : Superblock is persistent
Update Time : Sat Oct 19 22:02:02 2013
State : clean, degraded
Active Devices : 11
Working Devices : 11
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : Rack01:3 (local to host Rack01)
UUID : 8af4a2fa:a1036d0c:e8462ee9:4f30056d
Events : 8469
Number Major Minor RaidDevice State
0 128 357 0 active sync /dev/sdoa5
1 128 373 1 active sync /dev/sdob5
20 128 389 2 active sync /dev/sdoc5
19 130 261 3 active sync /dev/sdpa5
21 130 277 4 active sync /dev/sdpb5
18 130 293 5 active sync /dev/sdpc5
17 131 421 6 active sync /dev/sdqa5
16 131 437 7 active sync /dev/sdqb5
8 0 0 8 removed
14 133 325 9 active sync /dev/sdra5
13 133 341 10 active sync /dev/sdrb5
12 133 357 11 active sync /dev/sdrc5
15 131 453 - faulty spare /dev/sdqc5