Festplattenaustausch in bestehendem NAS mit einem freien Slot

Cococabana

Benutzer
Mitglied seit
18. Aug 2024
Beiträge
7
Punkte für Reaktionen
2
Punkte
3
Guten Abend,

viel gesucht, manches ausprobiert, aber so richtig komme ich nicht voran. Dabei stellte ich mir es so einfach vor...

Ich habe eine alte DS213j (2 Bay) in der ich räumlich getrennt von meinem Haupt-NAS ein Backup-Laufwerk füttere. In der DS213j arbeitet derzeit eine 10TB HDD, der zweite Slot ist frei und wird nicht verwendet.

Nun ist die 10TB HDD langsam voll und soll durch eine größere HDD ersetzt werden. Aber wie vorgehen? Gibt es eine Möglichkeit die Platten einmalig innerhalb der DS213j zu spiegeln, jedoch keinen dauerhaften SHR/RAID Verbund zu etablieren, den ich ja gleich wieder irgendwie auftrennen müsste?

Zu Berücksichtigen ist, dass es auf der derzeit genutzten 10TB HDD einen Ordner gibt der ein altes Synology Time Backup enthält. Viele viele Hardlinks, weshalb es sich verbietet diesen Ordner per Drag&Drop zu kopieren.

Vielleicht hat ja jemand eine Idee. Auch wenn ich nichts gefunden habe bin ich bestimmt nicht der erste mit dieser Aufgabe ;)

Gruß, Cococabana
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.677
Punkte für Reaktionen
2.077
Punkte
829
Kommst Du mit einer Linux-Shell klar? Dann kann man da etwas machen. Ansonsten könnte ein versioniertes HyperBackup über eine externe Platte eine Lösung sein.
 
  • Like
Reaktionen: Benie

Benie

Benutzer
Contributor
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
8.478
Punkte für Reaktionen
3.511
Punkte
344
  • Like
Reaktionen: dil88

Cococabana

Benutzer
Mitglied seit
18. Aug 2024
Beiträge
7
Punkte für Reaktionen
2
Punkte
3
Kommst Du mit einer Linux-Shell klar? Dann kann man da etwas machen. Ansonsten könnte ein versioniertes HyperBackup über eine externe Platte eine Lösung sein.
Jein. Ich hatte zuvor probiert die originale wie auch die neue Platte, beide mit installiertem DSM, über SATA-to-USB Festplattengehäuse über ein Ubuntu OS anzusprechen und dann mit rsync den Kopiervorgang unter Berücksichtigung von Hardlinks zu starten. Leider meldete rsync ziemlich zügig, dass ich keinen Schreibzugriff auf die neue Platte hätte. Meine Linuxkenntnisse reichen auch nicht soweit zu verstehen was da schief geht. Ich war ohnehin überrascht das Ubuntu vom Fleck weg die richtige Partition der von DSM partitionierten Platte mounten konnte. Eventuell hatte ich in der Vergangenheit schon geeignete Pakete installiert!? Diesen Ansatz habe ich deswegen erstmal zurückgestellt.

Zu deinem Vorschlag via HyperBackup: Meinst du damit
  1. DSM mit alter 10TB Platte booten
  2. bspw. eine andere leere 10TB per USB anschließen
  3. per HyperBackup die Daten der DSM-10TB Platte sichern
  4. DSM-10TB PLatte ausbauen um größere Platte mit installiertem DSM einzubauen
  5. am Ende das HyperBackup wieder auf der neuen Platte entpacken
  6. hoffen das beim Entpacken auch alle gesicherten Hardlinks wiederhergestellt werden
Wenn ja, habe ich gerade folgendes (Link) gefunden das genau dieses Thema behandelt. Das lese ich mir aber morgen nochmal mit wacheren Augen durch. Ein einfaches "Ja, geht" habe ich beim Überfliegen nicht rausgelesen.


Schau Dir mal diesen Thread dazu an, aber nicht nur guggen bitte auch lesen 😉😂

https://www.synology-forum.de/threads/raid-entfernen.50151/page-2#post-919938
Hmm. Das klingt ja fast zu schön um wahr zu sein. Ich probiere das mal als erstes!
 
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.677
Punkte für Reaktionen
2.077
Punkte
829
So in etwa sollte es gehen, ja.
Zu 4: Die größere Platte wird ja vermutlich neu sein und kein DSM beinhalten. Das passt auch durchaus. Die DS wird dann ein DSM installieren wollen. Ist das erledigt, sollte es reichen, das Paket HyperBackup zu installieren, um Daten (und ggfs. weitere gesicherte Pakete) aus dem HyperBackup auf der externen Platte wiederherstellen zu können.
Zu 6: Vielleicht kannst Du das sogar überprüfen.
Mit der Frage, ob Du mit einer Linux-Shell klar kommst, meinte ich übrigens, Dich per ssh auf der DS anzumelden.
 
  • Like
Reaktionen: Benie

Cococabana

Benutzer
Mitglied seit
18. Aug 2024
Beiträge
7
Punkte für Reaktionen
2
Punkte
3
So! Ich hab mir den Thread von Benie angesehen und es ist in der Tat sehr einfach mit ein wenig Shell. Das ging so einfach das man sich schon fragen kann warum das DSM nicht nativ anbietet.

Nochmal aufgelistet - geholfen hat mir:

Das sieht jetzt bei mir so aus im Speicher-Manager:

Bildschirmfoto 2024-09-26 um 21.18.15.png


Nun gibt es nur noch eine Hürde: Laufwerksgröße = 20TB versus Speicherpool/Volumengröße = 9TB. Per DSM scheint es keine Möglichkeit zu geben die nicht genutzten 11TB dem vorhandenen Speicherpool und Volumen zuzuordnen, was jedoch mein Ziel war und ist.

Kennt jemand auch für dieses Problem eine Möglichkeit bei SHR?

Viele Grüße

P.S.: Irgendwo habe ich mal was von einer Volumenbegrenzung auf 16TB bei meiner alten DS213j gelesen. Aber auch damit wäre mir ja erstmal geholfen.
 
Zuletzt bearbeitet:

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Kannst du über die 3 Punkte beim Speicherpool nicht die Größe ändern?
 
  • Like
Reaktionen: Benie

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Poste doch nochmal das, Konsole, SSH: sudo parted /dev/sata1 print free
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
genau, es braucht noch den parted befehl, kommt aber drauf welche Partition erweitert werden muss, deshalb der print Befehl, um zu sehen wie das jetzt aussieht.
 
  • Like
Reaktionen: Benie

Cococabana

Benutzer
Mitglied seit
18. Aug 2024
Beiträge
7
Punkte für Reaktionen
2
Punkte
3
Bei Ausführung bekam ich:

Code:
/$ sudo parted /dev/sata1 print free
Password:
Error: Could not stat device /dev/sata1 - No such file or directory.
Retry/Cancel? c

Hilft das auch?

Code:
root@DS213j:~# fdisk -l
The backup GPT table is corrupt, but the primary appears OK, so that will be used.
Disk /dev/sda: 20 TiB, 22000969973760 bytes, 42970644480 sectors
Disk model: WD221KFGX-68B9KN0      
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: B37745DD-6924-48C9-96FA-B023181A38E1

Device        Start         End     Sectors  Size Type
/dev/sda1      8192    16785407    16777216    8G Linux RAID
/dev/sda2  16785408    20979711     4194304    2G Linux RAID
/dev/sda5  21257952 19544458015 19523200064  9.1T Linux RAID


Disk /dev/mtdblock0: 768 KiB, 786432 bytes, 1536 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mtdblock1: 2.8 MiB, 2949120 bytes, 5760 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mtdblock2: 4.3 MiB, 4456448 bytes, 8704 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mtdblock3: 64 KiB, 65536 bytes, 128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mtdblock4: 64 KiB, 65536 bytes, 128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mtdblock5: 64 KiB, 65536 bytes, 128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md0: 2.4 GiB, 2549940224 bytes, 4980352 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/md1: 2 GiB, 2147418112 bytes, 4194176 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/md2: 9.1 TiB, 9995877351424 bytes, 19523197952 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/mapper/vg1000-lv: 9.1 TiB, 9995873681408 bytes, 19523190784 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

Bisschen schade ist auch die erste Zeile "The backup GPT table is corrupt, but the primary appears OK, so that will be used.".
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
sudo parted /dev/sda print free
 
  • Like
Reaktionen: Benie

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Der Befehl müsste dann eigentlcih zielführend sein:
suco parted /dev/sda resizepart 5 100%
 
  • Like
Reaktionen: Benie

Cococabana

Benutzer
Mitglied seit
18. Aug 2024
Beiträge
7
Punkte für Reaktionen
2
Punkte
3
Herzlichen Dank ctrlaltdelete! Nun hats wirklich geklappt:

Code:
nas_admin@DS213j:/$ sudo parted /dev/sda print free
Password:
Model: WDC WD221KFGX-68B9KN (scsi)
Disk /dev/sda: 22.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
        17.4kB  4194kB  4177kB  Free Space
 1      4194kB  8594MB  8590MB  ext4                  raid
 2      8594MB  10.7GB  2147MB  linux-swap(v1)        raid
        10.7GB  10.9GB  142MB   Free Space
 5      10.9GB  22.0TB  22.0TB                        raid
        22.0TB  22.0TB  970MB   Free Space

1727552184040.png
 
  • Like
Reaktionen: Benie und dil88

synfor

Benutzer
Sehr erfahren
Mitglied seit
22. Dez 2017
Beiträge
9.029
Punkte für Reaktionen
1.614
Punkte
308
Es gibt nur noch einen Haken, es bleiben etwa 4 TiB ungenutzt und das lässt sich nur durch das Löschen und das Neuaufsetzen des Speicherpools ändern.
 
  • Like
Reaktionen: ctrlaltdelete

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Genau, das liegt an dem mitgeschleppten Volume Limit.
 
  • Like
Reaktionen: dil88

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
@Cococabana musstes du noch manuell im DSM den Pool erweitern?
 

synfor

Benutzer
Sehr erfahren
Mitglied seit
22. Dez 2017
Beiträge
9.029
Punkte für Reaktionen
1.614
Punkte
308
Nein, das Volumenlimit verhindert hier nicht die Nutzung der übrigen 4 TiB. Wegen des Volumenlimits muss man mehrere Volumen nutzen, was durch den Speicherpool verhindert wird, weil er ohne Unterstützung für mehrere Volumen angelegt wurde.
 
  • Haha
Reaktionen: ctrlaltdelete

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
... ohne Worte.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat