- Mitglied seit
- 22. Dez 2012
- Beiträge
- 2
- Punkte für Reaktionen
- 0
- Punkte
- 0
Wie immer fällt ein gewisser Anteil neuer Platten in den ersten 3-6 Monaten aus ---> Garantie
Ich habe daher eine DS3612XS mit einem Raid6 aus 12*3T WDgreen bestückt.
Nachdem jetzt zwei Platten in kurzer Folge begonnen haben signifikant Fehler zu melden, sollen diese beide getauscht werden:
[117279.360959] sdg3 auto_remap 0
[117279.364011] ata3.00: exception Emask 0x0 SAct 0x1f SErr 0x0 action 0x6
[117279.370610] ata3.00: edma_err_cause=00000084 pp_flags=00000003, dev error, EDMA self-disable
[117279.379116] ata3.00: failed command: READ FPDMA QUEUED
[117279.384335] ata3.00: cmd 60/80:00:80:93:61/00:00:46:00:00/40 tag 0 ncq 65536 in
[117279.384336] res 41/40:24:00:94:61/40:00:46:00:00/40 Emask 0x9 (media error)
[117279.399525] ata3.00: status: { DRDY ERR }
[117279.403611] ata3.00: error: { UNC }
[117279.407176] ata3.00: failed command: READ FPDMA QUEUED
[117283.477468] sd 2:0:0:0: [sdg] Sense Key : 0x3 [current] [descriptor]
[117283.484032] Descriptor sense data with sense descriptors (in hex):
[117283.490299] 72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00
[117283.496951] fb 4b 52 00
[117283.500321] sd 2:0:0:0: [sdg] ASC=0x11 ASCQ=0x4
[117283.505040] sd 2:0:0:0: [sdg] CDB: cdb[0]=0x28: 28 00 fb 4b 52 00 00 00 80 00
[117283.512412] end_request: I/O error, dev sdg, sector 4216017408
[117283.518321] read error, md2, sdg3 index [6], sector 42065781888 [raid5_align_endio]
[117283.526057] ata3: EH complete
[117283.926391] read error corrected, md2, sdg3 index [6], sector 4216017416 [raid5_end_read_request]
[117283.935348] md/raid:md2: read error corrected (8 sectors at 4206580224 on sdg3)
...
[117284.089680] read error corrected, md2, sdg3 index [6], sector 4216017496 [raid5_end_read_request]
[117284.098625] read error corrected, md2, sdg3 index [6], sector 4216017504 [raid5_end_read_request]
[117284.107568] read error corrected, md2, sdg3 index [6], sector 4216017512 [raid5_end_read_request]
[117284.116509] read error corrected, md2, sdg3 index [6], sector 4216017520 [raid5_end_read_request]
[117284.125454] read error corrected, md2, sdg3 index [6], sector 4216017528 [raid5_end_read_request]
[117284.134396] read error corrected, md2, sdg3 index [6], sector 4216017536 [raid5_end_read_request]
[248157.382911] ata3: exception Emask 0x10 SAct 0x0 SErr 0x180000 action 0x6 frozen
[248157.390299] ata3: edma_err_cause=00000020 pp_flags=00000003, SError=00180000
[248157.397427] ata3: SError: { 10B8B Dispar }
[248157.401612] ata3: hard resetting link
[248157.710620] ata3: SATA link down (SStatus 0 SControl 300)
[248159.715158] ata3: hard resetting link
[248160.024117] ata3: SATA link down (SStatus 0 SControl 300)
[248160.029605] ata3: limiting SATA link speed to 1.5 Gbps
[248162.028655] ata3: hard resetting link
Nach dem Austausch der ersten Platte wurde die Ersatzplatte eingebunden und das System befindet sich im Rebuild.
Allerdings scheint es mir nicht normal, dass dieser Rebuild einen Monat dauern soll:
tonne> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid6 sdg3[12] sda3[0] sdl3[11] sdk3[10] sdj3[9] sdi3[8] sdh3[7] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1]
29255442560 blocks super 1.2 level 6, 64k chunk, algorithm 2 [12/11] [UUUUUU_UUUUU]
[>....................] recovery = 3.0% (89300096/2925544256) finish=47213.4min speed=1000K/sec
md1 : active raid1 sdg2[5] sde2[3] sdf2[4] sdi2[8] sdh2[6] sdj2[9] sdk2[10] sdl2[11] sda2[0] sdb2[1] sdc2[2] sdd2[7]
2097088 blocks [12/12] [UUUUUUUUUUUU]
md0 : active raid1 sdg1[6] sde1[4] sdf1[5] sdi1[8] sdh1[7] sdj1[9] sdk1[10] sdl1[11] sda1[0] sdb1[1] sdc1[2] sdd1[3]
2490176 blocks [12/12] [UUUUUUUUUUUU]
Gibt es eine Möglichkeit diesen Vorgang zu beschleunigen und die Rebuild Geschwindigkeit zur Laufzeit hoch zu setzen?
Reboot ???
Laut Logfile:
[253437.352331] md: md1: recovery done.
[253437.362303] md: recovery of RAID array md2
[253437.366497] md: minimum _guaranteed_ speed: 1000 KB/sec/disk.
[253437.372424] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
[253437.382075] md: using 128k window, over a total of 2925544256k.
Könnte die geringe Geschwindigkeit durch die zwei Platte mit Hau verursacht sein, oder sind das Anwendungen die bremsen?
Aktuell wird jedenfalls nicht aktiv mit der DS gearbeitet ...
Ungern möchte ich jetzt auch die zweite Platte ziehen, da damit keine Redundanz mehr gegeben wäre....
MfG. Alf
Ich habe daher eine DS3612XS mit einem Raid6 aus 12*3T WDgreen bestückt.
Nachdem jetzt zwei Platten in kurzer Folge begonnen haben signifikant Fehler zu melden, sollen diese beide getauscht werden:
[117279.360959] sdg3 auto_remap 0
[117279.364011] ata3.00: exception Emask 0x0 SAct 0x1f SErr 0x0 action 0x6
[117279.370610] ata3.00: edma_err_cause=00000084 pp_flags=00000003, dev error, EDMA self-disable
[117279.379116] ata3.00: failed command: READ FPDMA QUEUED
[117279.384335] ata3.00: cmd 60/80:00:80:93:61/00:00:46:00:00/40 tag 0 ncq 65536 in
[117279.384336] res 41/40:24:00:94:61/40:00:46:00:00/40 Emask 0x9 (media error)
[117279.399525] ata3.00: status: { DRDY ERR }
[117279.403611] ata3.00: error: { UNC }
[117279.407176] ata3.00: failed command: READ FPDMA QUEUED
[117283.477468] sd 2:0:0:0: [sdg] Sense Key : 0x3 [current] [descriptor]
[117283.484032] Descriptor sense data with sense descriptors (in hex):
[117283.490299] 72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00
[117283.496951] fb 4b 52 00
[117283.500321] sd 2:0:0:0: [sdg] ASC=0x11 ASCQ=0x4
[117283.505040] sd 2:0:0:0: [sdg] CDB: cdb[0]=0x28: 28 00 fb 4b 52 00 00 00 80 00
[117283.512412] end_request: I/O error, dev sdg, sector 4216017408
[117283.518321] read error, md2, sdg3 index [6], sector 42065781888 [raid5_align_endio]
[117283.526057] ata3: EH complete
[117283.926391] read error corrected, md2, sdg3 index [6], sector 4216017416 [raid5_end_read_request]
[117283.935348] md/raid:md2: read error corrected (8 sectors at 4206580224 on sdg3)
...
[117284.089680] read error corrected, md2, sdg3 index [6], sector 4216017496 [raid5_end_read_request]
[117284.098625] read error corrected, md2, sdg3 index [6], sector 4216017504 [raid5_end_read_request]
[117284.107568] read error corrected, md2, sdg3 index [6], sector 4216017512 [raid5_end_read_request]
[117284.116509] read error corrected, md2, sdg3 index [6], sector 4216017520 [raid5_end_read_request]
[117284.125454] read error corrected, md2, sdg3 index [6], sector 4216017528 [raid5_end_read_request]
[117284.134396] read error corrected, md2, sdg3 index [6], sector 4216017536 [raid5_end_read_request]
[248157.382911] ata3: exception Emask 0x10 SAct 0x0 SErr 0x180000 action 0x6 frozen
[248157.390299] ata3: edma_err_cause=00000020 pp_flags=00000003, SError=00180000
[248157.397427] ata3: SError: { 10B8B Dispar }
[248157.401612] ata3: hard resetting link
[248157.710620] ata3: SATA link down (SStatus 0 SControl 300)
[248159.715158] ata3: hard resetting link
[248160.024117] ata3: SATA link down (SStatus 0 SControl 300)
[248160.029605] ata3: limiting SATA link speed to 1.5 Gbps
[248162.028655] ata3: hard resetting link
Nach dem Austausch der ersten Platte wurde die Ersatzplatte eingebunden und das System befindet sich im Rebuild.
Allerdings scheint es mir nicht normal, dass dieser Rebuild einen Monat dauern soll:
tonne> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid6 sdg3[12] sda3[0] sdl3[11] sdk3[10] sdj3[9] sdi3[8] sdh3[7] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1]
29255442560 blocks super 1.2 level 6, 64k chunk, algorithm 2 [12/11] [UUUUUU_UUUUU]
[>....................] recovery = 3.0% (89300096/2925544256) finish=47213.4min speed=1000K/sec
md1 : active raid1 sdg2[5] sde2[3] sdf2[4] sdi2[8] sdh2[6] sdj2[9] sdk2[10] sdl2[11] sda2[0] sdb2[1] sdc2[2] sdd2[7]
2097088 blocks [12/12] [UUUUUUUUUUUU]
md0 : active raid1 sdg1[6] sde1[4] sdf1[5] sdi1[8] sdh1[7] sdj1[9] sdk1[10] sdl1[11] sda1[0] sdb1[1] sdc1[2] sdd1[3]
2490176 blocks [12/12] [UUUUUUUUUUUU]
Gibt es eine Möglichkeit diesen Vorgang zu beschleunigen und die Rebuild Geschwindigkeit zur Laufzeit hoch zu setzen?
Reboot ???
Laut Logfile:
[253437.352331] md: md1: recovery done.
[253437.362303] md: recovery of RAID array md2
[253437.366497] md: minimum _guaranteed_ speed: 1000 KB/sec/disk.
[253437.372424] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
[253437.382075] md: using 128k window, over a total of 2925544256k.
Könnte die geringe Geschwindigkeit durch die zwei Platte mit Hau verursacht sein, oder sind das Anwendungen die bremsen?
Aktuell wird jedenfalls nicht aktiv mit der DS gearbeitet ...
Ungern möchte ich jetzt auch die zweite Platte ziehen, da damit keine Redundanz mehr gegeben wäre....
MfG. Alf