DS720+ SSD Cache auch als Volume verwendbar?

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Kein Problem. :cool: Noch ein paar kleine Hinweise ...

Hinweis 1
Das Anlegen des Speicherpools mit der Unterstützung für mehrere Volumes muss in einem Durchgang erfolgen. Wenn man nach Punkt 7 schon einen Reboot macht und danach noch die LVM-Container erstellen möchte, werden diese im Speicher-Manager nach einem erneutem Reboot nicht erkannt. Dann muss man erst wieder den Speicherpool löschen und ab Punkt 7 erneut starten.

Hinweis 2
Wie schon aus der ein oder anderen Quelle ersichtlich, gibt es ja auf den Laufwerken die in den Diskstations genutzt werden drei Partitionen. Die ersten beiden sind unsichtbar für den Speicher-Manager. Partition 1 (md0) ist die Systempartition, Partition 2 (md1) ist die Auslagerungspartition und Partition 3 ist für die normale Nutzung. Jede reguläre Festplatte wird in das übergreifende RAID1 von md0/md1 eingebunden. Somit ist gewährleistet, dass das System läuft, solange eine funktionierende Festplatte im Gerät ist.
Ich habe mir in meinem jugendlichen Leichtsinn gedacht, ich binde Partition 1/2 der NVMe-SSDs auch in md0/md1 ein.

  1. NVMe Partition 1 in md0 einbinden
    Bash:
    mdadm --add /dev/md0 /dev/nvme0n1p1
    
    mdadm: added /dev/nvme0n1p1
  2. NVMe Partition 2 in md1 einbinden
    Bash:
    mdadm --add /dev/md1 /dev/nvme0n1p2
    
    mdadm: added /dev/nvme0n1p2
  3. RAID-Setup anzeigen
    Bash:
    cat /proc/mdstat
    
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
    md2 : active raid1 nvme0n1p3[0]
    972040384 blocks super 1.2 [1/1] [U]
    
    md1 : active raid1 nvme0n1p2[3] sda2[0] sdb2[1] sdc2[2]
    2097088 blocks [4/4] [UUUU]
    
    md0 : active raid1 nvme0n1p1[2] sdc1[1] sda1[0] sdb1[3]
    2490176 blocks [4/4] [UUUU]
    
    unused devices: <none>
    Wie man sieht wurden alle Sachen sauber angelegt. Nun könnten man davon ausgehen, dass das nach einem Reboot auch noch so ist.
  4. Da kann man nur sagen, leider nein. Die Partition 2 der NVMe wurde leider aus md1 entfernt. Woran das liegt, kann ich leider nicht sagen.
    Bash:
    cat /proc/mdstat
    
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
    md2 : active raid1 nvme0n1p3[0]
          972040384 blocks super 1.2 [1/1] [U]
      
    md1 : active raid1 sdc2[2] sdb2[1] sda2[0]
          2097088 blocks [4/3] [UUU_]
      
    md0 : active raid1 sda1[0] sdb1[3] sdc1[1] nvme0n1p1[2]
          2490176 blocks [4/4] [UUUU]
      
    unused devices: <none>
  5. Jetzt habe die Diskstation heruntergefahren und alle regulären Festplatten entfernt. Es sind also nur noch die NVMe-SSDs in der Diskstation. Nach dem Starten begrüßt mich aber leider folgendes Bild:
    Bildschirmfoto 2021-02-18 um 11.39.26.png
Es ist also zum jetzigen Zeitpunkt zwar möglich die Systempartition auf die NVMe zu bekommen, aber leider lässt diese sich nicht nutzen. Ob es daran liegt, dass es mit der Auslagerungspartition nicht möglich ist, kann ich nicht genau sagen. Ich denke, es liegt aber eher daran, dass sich die NVMe-SSDs nicht offziell als Laufwerk einbinden lassen.

Wie schon weiter oben geschrieben, kann man da nur hoffen, dass eventuell in die ganze Sache nochmal Bewegung kommt und es unterstützt wird. Solange kann man leider nur diesen Workaround nutzen.
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Hinweis 1 Zusatz 1
Mir ist gerader noch was aufgefallen. Ich habe gerade die DS wieder auf Werkseinstellungen zurückgesetzt, davor aber nicht die LVM-Container aufgelöst. Nach dem Aufrufen des DSM > Speicher-Manager grinste mir der Speicherpool 1 (NVMe) entgegen, nur dieser hatte keine Unterstützung für mehrere Volumes an Bord.

Bildschirmfoto 2021-02-19 um 10.13.32.png

Des Weiteren wurde der gesamte verfügbare Speicher einem iSCSI LUN zugeordnet, welcher auch auf Speicherpool 1 liegt. Irgendwie wurden scheinbar die LVM-Container zum LUN konvertiert. Das ist das gleiche Verhalten, welches auch unter Hinwei 1 passiert ist. Das hatte ich nur nicht geschrieben, da ich es leider nicht dokumentiert hatte. Das LUN ist auch unter dem iSCSI-Manager aufgeführt. Warum dieses Verhalten auftritt ist mir aber nicht ganz klar.

Bildschirmfoto 2021-02-19 um 10.20.29.png

Eigentlich hatte ich ja gedacht, dass alle Laufwerke (auch die NVMe-SSDs) zurückgesetzt werden. Dies scheint aber nicht der Fall zu sein, obwohl das Ganze ja eigentlich nur ein Software-RAID ist. Komisch ... Hat vielleicht noch jemand eine Idee dazu? Wenn ich mir nochmal das derzeitige RAID-Setup auf der Konsole anschaue, ist alles wie vor dem Zurücksetzen.

Bash:
cat /proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid1 nvme0n1p3[0]
972040384 blocks super 1.2 [1/1] [U]
     
md1 : active raid1 sda2[0]
2097088 blocks [4/1] [U___]
     
md0 : active raid1 sda1[0]
2490176 blocks [4/1] [U___]
     
unused devices: <none>

Außer für die LVM-Container, unter "pvdisplay" und "vgdisplay" erfolgt keine Ausgabe. Somit sind sie nicht mehr existend. Das erklärt auch, warum die Unterstützung für mehrere Volumes verschwunden ist.

Das alles wird voraussichtlich daran liegen, dass die NVMe-SSDs ja nicht offiziell als Laufwerk genutzt werden können. Aber warum diese Konvertierung stattfindet und das Software-RAID nach den Zurücksetzen auf Werkseinstellungen noch da ist, keine Ahnung. Ideen sind willkommen.
 
Zuletzt bearbeitet:

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Hinweis 1 Zusatz 2
Ich habe das jetzt nachgestellt und die DS mehrmals neu aufgesetzt. Wenn man die LVM-Container nicht löscht bzw. den RAID-Verbund über "mdadm" nicht auflöst, taucht das Kontrukt nach jedem Neustart wieder im Speicher-Manager auf, selbst wenn man das Ganze über selbigen gelöscht hat. Daher würde ich raten, das Erstellen und Löschen nur über die Konsole vorzunehmen.
 
  • Like
Reaktionen: Fusion

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Hinweis 3
Unter #39 Punkt 7 hat sich leider ein kleiner Fehler eingeschlichen. Dort habe ich ein "/" vergessen, unten rot markiert.
mdadm --create /dev/md2 --level=0/1 --raid-devices=2 --force /dev/nvme0n1p3 /dev/nvme1n1p3 (optional für RAID 0/1)
 

mittelp

Benutzer
Mitglied seit
08. Sep 2018
Beiträge
13
Punkte für Reaktionen
0
Punkte
1
moin,
ich habe mal versucht auf diese Art ein Volume zu erstellen mit "einem" NVME M2 Kingston 1TB.
Leider gelingt mir es nicht, ich habe die Anleitung mehrmals abgearbeitet.

root@DS720:~# fdisk -l /dev/nvme0n1
Disk /dev/nvme0n1: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: KINGSTON SA2000M81000G
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x342ff6cb

Device Boot Start End Sectors Size Id Type
/dev/nvme0n1p1 256 4980735 4980480 2.4G fd Linux raid autodetect
/dev/nvme0n1p2 4980736 9175039 4194304 2G fd Linux raid autodetect
/dev/nvme0n1p3 9437184 1953520064 1944082881 927G fd Linux raid autodetect
root@DS720:~# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sata1p3[0] sata2p3[1]
3902196544 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata1p2[0] sata2p2[1]
2097088 blocks [2/2] [UU]

md0 : active raid1 sata1p1[0] sata2p1[1]
2490176 blocks [2/2] [UU]

unused devices: <none>
root@DS720:~# mdadm --create /dev/md3 --level=1 --raid-devices=1 --force /dev/nvme0n1p3
mdadm: /dev/nvme0n1p3 appears to be part of a raid array:
level=raid1 devices=1 ctime=Wed Jan 19 17:17:08 2022
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md3 started.

root@DS720:~# mkfs.btrfs -f /dev/md3
btrfs-progs v4.0
See http://btrfs.wiki.kernel.org for more information.

Performing full device TRIM (927.01GiB) ...
Label: (null)
UUID: f99e5624-4aad-4603-a82b-3df3f4ab6453
Node size: 16384
Sector size: 4096
Filesystem size: 927.01GiB
Block group profiles:
Data: single 8.00MiB
Metadata: DUP 1.01GiB
System: DUP 12.00MiB
SSD detected: no
Incompat features: extref, skinny-metadata
Number of devices: 1
Devices:
ID SIZE PATH
1 927.01GiB /dev/md3

root@DS720:~# cat /proc/mdstat
Personalities : [raid1]
md3 : active raid1 nvme0n1p3[0]
972040384 blocks super 1.2 [1/1]

md2 : active raid1 sata1p3[0] sata2p3[1]
3902196544 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata1p2[0] sata2p2[1]
2097088 blocks [2/2] [UU]

md0 : active raid1 sata1p1[0] sata2p1[1]
2490176 blocks [2/2] [UU]

unused devices: <none>
root@DS720:~#

Es sieht eigentlich ganz gut aus, aber nach reboot und Speicher Manager kommt dann nach dem ich auf Speicherpool erstellen geklickt habe das:

Was mache ich falsch?
SM 2022-01-19 180452.jpg
 

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.898
Punkte für Reaktionen
1.248
Punkte
194

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.898
Punkte für Reaktionen
1.248
Punkte
194
@mittelp Hast Du den synopartition-Befehl ausgelassen? Den sehe ich in Deiner Kopie aus dem Terminal nicht.

synopartition --part /dev/nvme0n1 12


Erst fdisk, dann synopartition.

Oder liegt es vielleicht daran, daß Deine SSD nicht auf der Synology-Kompatibilitätsliste steht?

Hast Du den Hinweis in den Kommentaren beim Reddit-Link bezüglich DSM7 gelesen: “Online Assemble” anklicken?
 
Zuletzt bearbeitet:

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.346
Punkte für Reaktionen
5.605
Punkte
524
@Stationary die gleiche SSD läuft in meiner DS920+ tadellos
 

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.898
Punkte für Reaktionen
1.248
Punkte
194
@ctrlaltdelete Dann kann man das schon mal ausschließen. Bliebe noch das ”Online assemble”, das im Reddit-Beitrag erwähnt wird.
 

mittelp

Benutzer
Mitglied seit
08. Sep 2018
Beiträge
13
Punkte für Reaktionen
0
Punkte
1
habe ich auch so gemacht.

synopartition wurde vorher auch gemacht.

Was ist mit “Online Assemble” anklicken? gemeint?

hat wieder nicht geklappt :(

PS: DSM 7.0.1-42218

*******************************************************************************************************************

Windows PowerShell
Copyright (C) Microsoft Corporation. Alle Rechte vorbehalten.

Installieren Sie die neueste PowerShell für neue Funktionen und Verbesserungen! https://aka.ms/PSWindows

PS C:\Users\Peter> ssh Peter@192.168.178.6
Peter@192.168.178.6's password:

Synology strongly advises you not to run commands as the root user, who has
the highest privileges on the system. Doing so may cause major damages
to the system. Please note that if you choose to proceed, all consequences are
at your own risk.

Could not chdir to home directory /var/services/homes/Peter: No such file or directory
Peter@DS720:/$ sudo -i
Password:
root@DS720:~# synopartition --part /dev/nvme0n1 12

Device Sectors (Version7: SupportRaid)
/dev/nvme0n11 4980480 (2431 MB)
/dev/nvme0n12 4194304 (2048 MB)
Reserved size: 262144 ( 128 MB)
Primary data partition will be created.

WARNING: This action will erase all data on '/dev/nvme0n1' and repart it, are you sure to continue? [y/N] y
Cleaning all partitions...
Creating sys partitions...
Creating primary data partition...
Please remember to mdadm and mkfs new partitions.

root@DS720:~# fdisk -l /dev/nvme0n1
Disk /dev/nvme0n1: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: KINGSTON SA2000M81000G
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x342ff6cb

Device Boot Start End Sectors Size Id Type
/dev/nvme0n1p1 256 4980735 4980480 2.4G fd Linux raid autodetect
/dev/nvme0n1p2 4980736 9175039 4194304 2G fd Linux raid autodetect
/dev/nvme0n1p3 9437184 1953520064 1944082881 927G fd Linux raid autodetect

root@DS720:~# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sata1p3[0] sata2p3[1]
3902196544 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata1p2[0] sata2p2[1]
2097088 blocks [2/2] [UU]

md0 : active raid1 sata1p1[0] sata2p1[1]
2490176 blocks [2/2] [UU]

unused devices: <none>

root@DS720:~# mdadm --create /dev/md3 --level=1 --raid-devices=1 --force /dev/nvme0n1p3
mdadm: /dev/nvme0n1p3 appears to be part of a raid array:
level=raid1 devices=1 ctime=Wed Jan 19 17:58:28 2022
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
Continue creating array? yes
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md3 started.

root@DS720:~# mkfs.btrfs -f /dev/md3
btrfs-progs v4.0
See http://btrfs.wiki.kernel.org for more information.

Performing full device TRIM (927.01GiB) ...
Label: (null)
UUID: 09a538fe-adb3-49e0-b0be-e2d389836ede
Node size: 16384
Sector size: 4096
Filesystem size: 927.01GiB
Block group profiles:
Data: single 8.00MiB
Metadata: DUP 1.01GiB
System: DUP 12.00MiB
SSD detected: no
Incompat features: extref, skinny-metadata
Number of devices: 1
Devices:
ID SIZE PATH
1 927.01GiB /dev/md3

root@DS720:~#
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Ich vermute, der Fehler liegt darin, dass du versuchst über die GUI mit der NVMe einen Speicherpool zu erstellen. Das wird nicht funktionieren, wie die Fehlermeldung zeigt. In der linken Leiste des Speicher-Managers unter Speicher findest du den Eintrag "Verfügbarer Speicherpool 1". Unter diesem Eintrag solltest du die NVMe "Online zusammenführen" können. Danach müsste eigentlich der Speicherpool mit der NVMe zur Verfügung stehen. Das mit dem "Online zusammenführen" hatte ich vergessen hier zu dokumentieren. Dieser zusätzliche Schritt kam noch hinzu, nachdem ich das Ganze unter DSM 7 durchgespielt hatte.
 

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.898
Punkte für Reaktionen
1.248
Punkte
194

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Ich denke auch.
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.346
Punkte für Reaktionen
5.605
Punkte
524
@mittelp du hast nach fdisk den Befehl zum Partitionieren vergessen: synopartition --part /dev/nvme0n1 12, wie @Stationary schon schrieb
 

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.898
Punkte für Reaktionen
1.248
Punkte
194
@ctrlaltdelete Hatte ich auch schon angemerkt. Wenn Du Dir aber mal seine Dokumentation ansiehst, kannst Du erkennen, daß die NVMe schon mit drei Partitionen versehen ist. Ich vermute mal, daß - da @mittelp das Ganze mehrfach abgearbeitet hat - die Partionierung von ihm beim ersten Mal gemacht wurde und immer noch vorliegt:


/dev/nvme0n1p1 256 4980735 4980480 2.4G fd Linux raid autodetect
/dev/nvme0n1p2 4980736 9175039 4194304 2G fd Linux raid autodetect
/dev/nvme0n1p3 9437184 1953520064 1944082881 927G fd Linux raid autodetect
 

mittelp

Benutzer
Mitglied seit
08. Sep 2018
Beiträge
13
Punkte für Reaktionen
0
Punkte
1

@King3R

kaum macht man es richtig und schon geht es. :) Genau das war das Problem, "online zusammenführen" unter Speicherpool1

Danke für eure Hilfe :)
 

Anhänge

  • Speicherpool 2022-01-20 101743.jpg
    Speicherpool 2022-01-20 101743.jpg
    44,5 KB · Aufrufe: 27

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Da hast du Recht, meistens ist das so. ;) Viel Spaß damit ...
 

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.898
Punkte für Reaktionen
1.248
Punkte
194
Kann mir jemand sagen, wie der Weg ist, eine VM mittels VMM auf der nun als Volume 2 benutzten NVMe SSD anzulegen? VMM bietet mir dazu als Ziel nur Volume 1, also die HDD als Installationsziel an.
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.346
Punkte für Reaktionen
5.605
Punkte
524
VMM ->Speicher ->hinzufügen
 
  • Like
Reaktionen: Stationary

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.898
Punkte für Reaktionen
1.248
Punkte
194


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat