SSD M.2 Ist die m2 schon durch? Kritisch , reparieren? Speicherpool hat sich verschlechtert.

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
Gerade beim übertragen von Daten, hat die Synology angefangen an zu piepen. :-(((
repariere geht nicht. Da steht dass nur eine m2 verfügbar ist. 2 Neustartes, haben nichts gebracht. -.- muss ich eine neue kaufen?

Bildschirmfoto 2025-01-19 um 19.46.42.pngBildschirmfoto 2025-01-19 um 18.58.50.png
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
31.058
Punkte für Reaktionen
2.565
Punkte
829
Ohne SMART-Werte wird da niemand etwas sagen können.
 
  • Like
Reaktionen: ElaCorp

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
Abgemacht. Danke für deine Hilfe.
Ich sichere eben alle Dateien die da noch sind und mach dann den Test.
 

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
Achso, nur die Werte auslesen, nicht diesen langen test machen.
Hier was ich über ssh bekommen haben.

Code:
Smart Log for NVME device:nvme0n1 namespace-id:ffffffff
critical_warning                    : 0
temperature                         : 43 C
available_spare                     : 100%
available_spare_threshold           : 1%
percentage_used                     : 1%
data_units_read                     : 15,764,486
data_units_written                  : 15,200,933
host_read_commands                  : 166,967,884
host_write_commands                 : 442,624,406
controller_busy_time                : 5,812
power_cycles                        : 4
power_on_hours                      : 6,167
unsafe_shutdowns                    : 1
media_errors                        : 0
num_err_log_entries                 : 0
Warning Temperature Time            : 0
Critical Composite Temperature Time : 0
Temperature Sensor 1                : 50 C
Temperature Sensor 2                : 51 C
Temperature Sensor 3                : 52 C
Temperature Sensor 4                : 53 C
Temperature Sensor 5                : 54 C
Temperature Sensor 6                : 55 C
Temperature Sensor 7                : 56 C
Temperature Sensor 8                : 57 C
NAME@NAS:~$ sudo nvme --smart-log /dev/nvme1n1
Smart Log for NVME device:nvme1n1 namespace-id:ffffffff
critical_warning                    : 0
temperature                         : 52 C
available_spare                     : 100%
available_spare_threshold           : 1%
percentage_used                     : 1%
data_units_read                     : 16,315,791
data_units_written                  : 15,492,228
host_read_commands                  : 262,072,332
host_write_commands                 : 474,501,063
controller_busy_time                : 6,147
power_cycles                        : 4
power_on_hours                      : 6,167
unsafe_shutdowns                    : 1
media_errors                        : 0
num_err_log_entries                 : 0
Warning Temperature Time            : 0
Critical Composite Temperature Time : 0
Temperature Sensor 1                : 50 C
Temperature Sensor 2                : 51 C
Temperature Sensor 3                : 52 C
Temperature Sensor 4                : 53 C
Temperature Sensor 5                : 54 C
Temperature Sensor 6                : 55 C
Temperature Sensor 7                : 56 C
Temperature Sensor 8                : 57 C
 

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
Eventuell sind das die Werte vom 6.12.2024.
Nachdem ich die Daten einmal gesichert habe, würde ich da auf "Jetzt aktualisieren" klicken.
 

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
Ja, sehr ähnlich. Kann es sein, dass ich das Raid mit diesem Script reparieren muss?


Code:
Smart Log for NVME device:nvme0n1 namespace-id:ffffffff
critical_warning                    : 0
temperature                         : 48 C
available_spare                     : 100%
available_spare_threshold           : 1%
percentage_used                     : 1%
data_units_read                     : 15,764,486
data_units_written                  : 15,200,933
host_read_commands                  : 166,967,884
host_write_commands                 : 442,624,406
controller_busy_time                : 5,812
power_cycles                        : 4
power_on_hours                      : 6,167
unsafe_shutdowns                    : 1
media_errors                        : 0
num_err_log_entries                 : 0
Warning Temperature Time            : 0
Critical Composite Temperature Time : 0
Temperature Sensor 1                : 50 C
Temperature Sensor 2                : 51 C
Temperature Sensor 3                : 52 C
Temperature Sensor 4                : 53 C
Temperature Sensor 5                : 54 C
Temperature Sensor 6                : 55 C
Temperature Sensor 7                : 56 C
Temperature Sensor 8                : 57 C
NAME@NAS:~$ sudo nvme --smart-log /dev/nvme1n1
Smart Log for NVME device:nvme1n1 namespace-id:ffffffff
critical_warning                    : 0
temperature                         : 52 C
available_spare                     : 100%
available_spare_threshold           : 1%
percentage_used                     : 1%
data_units_read                     : 16,360,605
data_units_written                  : 15,493,057
host_read_commands                  : 262,218,393
host_write_commands                 : 474,520,378
controller_busy_time                : 6,155
power_cycles                        : 4
power_on_hours                      : 6,167
unsafe_shutdowns                    : 1
media_errors                        : 0
num_err_log_entries                 : 0
Warning Temperature Time            : 0
Critical Composite Temperature Time : 0
Temperature Sensor 1                : 50 C
Temperature Sensor 2                : 51 C
Temperature Sensor 3                : 52 C
Temperature Sensor 4                : 53 C
Temperature Sensor 5                : 54 C
Temperature Sensor 6                : 55 C
Temperature Sensor 7                : 56 C
Temperature Sensor 8                : 57 C
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
31.058
Punkte für Reaktionen
2.565
Punkte
829
Danke für die SMART-Werte! Die Darstellung ist für mich ungewohnt, aber ich sehe keine Probleme.
 
  • Like
Reaktionen: ElaCorp

maxblank

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
25. Nov 2022
Beiträge
5.090
Punkte für Reaktionen
2.901
Punkte
309
Führe das Script mal manuell über die Console aus und schaue, was da als Ausgabe kommt.
 

DaveR

Benutzer
Sehr erfahren
Mitglied seit
30. Mrz 2022
Beiträge
494
Punkte für Reaktionen
883
Punkte
144

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
mhhh, ich musste das Volume löschen, und dann ging das Menü und die m2v war sofort möglich zum repariere auszuwählen. -.- seltsam. Und erscheint für mich unlogisch. ich hab das Volum vorher komplett runtergeladen udn werde es danach wieder drauf machen.
 

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
Kann es sein, dass eine SSD bei mir defekt ist?

Es sind 2TB und es dauert Tage das zu reparieren.
Ich hab um 17 Uhr angefangen und es ist nun 5:30 Uhr, also 12:30 Std, und es bei 40% ist -.-
Bildschirmfoto 2025-01-23 um 04.44.45.pngBildschirmfoto 2025-01-23 um 04.44.57.pngBildschirmfoto 2025-01-23 um 04.45.51.pngBildschirmfoto 2025-01-23 um 05.30.26.pngBildschirmfoto 2025-01-23 um 05.30.50.png
 

maxblank

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
25. Nov 2022
Beiträge
5.090
Punkte für Reaktionen
2.901
Punkte
309
  • Like
Reaktionen: ElaCorp

ElaCorp

Benutzer
Mitglied seit
12. Mai 2015
Beiträge
886
Punkte für Reaktionen
73
Punkte
48
Also es waren vorher ca. 400 GB drauf. Dann gab es ja den kritischen fehler, und dann musste ich das volum löschen. Deswegen sind die eigentlich leer.

Der Name ist:
Vi3000 Internal PCIe NVMe M.2 SSD 2TB
 

maxblank

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
25. Nov 2022
Beiträge
5.090
Punkte für Reaktionen
2.901
Punkte
309
Erstellen eines RAIDs auf leeren NVMEs dürfte eigentlich maximal eine Stunden dauern, eher weniger.
 
  • Like
Reaktionen: DaveR

Benie

Benutzer
Contributor
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
9.581
Punkte für Reaktionen
4.281
Punkte
389
Hat bei mir nie länger als 10-15 Minuten gedauert.
Mal am Rande erwähnt, die Verbatim SSDs gehören nicht unbedingt zu den durchhaltefähigsten.
Ich habe jetzt hier nicht alles gelesen Die SMART Werte waren /sind in Ordnung?
 
  • Like
Reaktionen: DaveR und maxblank

DaveR

Benutzer
Sehr erfahren
Mitglied seit
30. Mrz 2022
Beiträge
494
Punkte für Reaktionen
883
Punkte
144
Dann gab es ja den kritischen fehler, und dann musste ich das volum löschen. Deswegen sind die eigentlich leer.
Creating a volume on an existing storage pool should take less than 30 seconds.

Creating a storage pool on NVMe drives should not take more than a few minutes to a couple of hours (depending on the size). When you create a storage pool on drives that have already had a storage pool on them in this Synology NAS you get the option to skip the drive check (so creating the storage pool then only takes seconds).

It seems like whatever caused the critical error is still a problem. I would not trust the drive that had the critical error.
 
  • Like
Reaktionen: Benie

metalworker

Benutzer
Sehr erfahren
Mitglied seit
25. Apr 2023
Beiträge
3.800
Punkte für Reaktionen
1.550
Punkte
194
Die Smart Werte sehen so erstmal nicht schlecht aus.
Aber aus meiner Erfahrung hat das bei SSDs nicht immer was zu sagen.

Ich würde SSD totschreiben. Und mit neue kaufen.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat