Kein Problem. Noch ein paar kleine Hinweise ...
Hinweis 1
Das Anlegen des Speicherpools mit der Unterstützung für mehrere Volumes muss in einem Durchgang erfolgen. Wenn man nach Punkt 7 schon einen Reboot macht und danach noch die LVM-Container erstellen möchte, werden diese im Speicher-Manager nach einem erneutem Reboot nicht erkannt. Dann muss man erst wieder den Speicherpool löschen und ab Punkt 7 erneut starten.
Hinweis 2
Wie schon aus der ein oder anderen Quelle ersichtlich, gibt es ja auf den Laufwerken die in den Diskstations genutzt werden drei Partitionen. Die ersten beiden sind unsichtbar für den Speicher-Manager. Partition 1 (md0) ist die Systempartition, Partition 2 (md1) ist die Auslagerungspartition und Partition 3 ist für die normale Nutzung. Jede reguläre Festplatte wird in das übergreifende RAID1 von md0/md1 eingebunden. Somit ist gewährleistet, dass das System läuft, solange eine funktionierende Festplatte im Gerät ist.
Ich habe mir in meinem jugendlichen Leichtsinn gedacht, ich binde Partition 1/2 der NVMe-SSDs auch in md0/md1 ein.
Wie schon weiter oben geschrieben, kann man da nur hoffen, dass eventuell in die ganze Sache nochmal Bewegung kommt und es unterstützt wird. Solange kann man leider nur diesen Workaround nutzen.
Hinweis 1
Das Anlegen des Speicherpools mit der Unterstützung für mehrere Volumes muss in einem Durchgang erfolgen. Wenn man nach Punkt 7 schon einen Reboot macht und danach noch die LVM-Container erstellen möchte, werden diese im Speicher-Manager nach einem erneutem Reboot nicht erkannt. Dann muss man erst wieder den Speicherpool löschen und ab Punkt 7 erneut starten.
Hinweis 2
Wie schon aus der ein oder anderen Quelle ersichtlich, gibt es ja auf den Laufwerken die in den Diskstations genutzt werden drei Partitionen. Die ersten beiden sind unsichtbar für den Speicher-Manager. Partition 1 (md0) ist die Systempartition, Partition 2 (md1) ist die Auslagerungspartition und Partition 3 ist für die normale Nutzung. Jede reguläre Festplatte wird in das übergreifende RAID1 von md0/md1 eingebunden. Somit ist gewährleistet, dass das System läuft, solange eine funktionierende Festplatte im Gerät ist.
Ich habe mir in meinem jugendlichen Leichtsinn gedacht, ich binde Partition 1/2 der NVMe-SSDs auch in md0/md1 ein.
- NVMe Partition 1 in md0 einbinden
Bash:mdadm --add /dev/md0 /dev/nvme0n1p1 mdadm: added /dev/nvme0n1p1
- NVMe Partition 2 in md1 einbinden
Bash:mdadm --add /dev/md1 /dev/nvme0n1p2 mdadm: added /dev/nvme0n1p2
- RAID-Setup anzeigen
Bash:cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid1 nvme0n1p3[0] 972040384 blocks super 1.2 [1/1] [U] md1 : active raid1 nvme0n1p2[3] sda2[0] sdb2[1] sdc2[2] 2097088 blocks [4/4] [UUUU] md0 : active raid1 nvme0n1p1[2] sdc1[1] sda1[0] sdb1[3] 2490176 blocks [4/4] [UUUU] unused devices: <none>
- Da kann man nur sagen, leider nein. Die Partition 2 der NVMe wurde leider aus md1 entfernt. Woran das liegt, kann ich leider nicht sagen.
Bash:cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid1 nvme0n1p3[0] 972040384 blocks super 1.2 [1/1] [U] md1 : active raid1 sdc2[2] sdb2[1] sda2[0] 2097088 blocks [4/3] [UUU_] md0 : active raid1 sda1[0] sdb1[3] sdc1[1] nvme0n1p1[2] 2490176 blocks [4/4] [UUUU] unused devices: <none>
- Jetzt habe die Diskstation heruntergefahren und alle regulären Festplatten entfernt. Es sind also nur noch die NVMe-SSDs in der Diskstation. Nach dem Starten begrüßt mich aber leider folgendes Bild:
Wie schon weiter oben geschrieben, kann man da nur hoffen, dass eventuell in die ganze Sache nochmal Bewegung kommt und es unterstützt wird. Solange kann man leider nur diesen Workaround nutzen.