Raid entfernen

Ja, das hat er leider nicht vorher gemacht

Hier ein paar Schritte, um weiterzukommen:




1️⃣ Prüfen, ob lvm2 installiert ist


Der Fehler -ash: lvscan: command not found deutet darauf hin, dass das LVM-Paket fehlt oder nicht im Pfad ist. Versuche:


which lvscan<br>

Falls keine Ausgabe kommt, installiere lvm2 mit:


apt update &amp;&amp; apt install lvm2 -y<br>

Dann probiere lvscan erneut:


lvscan<br>



2️⃣ LVM trotzdem aktivieren (auch wenn Teile fehlen)


Da das System sagt, dass es ein unvollständiges Volume ist, kannst du es trotzdem versuchen zu aktivieren:


vgchange --activationmode partial -ay vg1<br>

Falls das klappt, prüfe mit:


lvscan<br>



3️⃣ Prüfen, ob sich das Volume mounten lässt


Falls das Logical Volume /dev/vg1/volume_1 nun sichtbar ist, versuche:


mount -o recovery,ro /dev/vg1/volume_1 /mnt/volume_1<br>

Falls es Fehler gibt, poste die Ausgabe!




Falls nichts funktioniert, wäre ein btrfs restore eventuell eine Lösung, um die Daten zu retten. Poste am besten die Fehlermeldungen, dann schauen wir weiter! 🚀
 
Bin morgen ab 8:00 online
 
Ja, das hat er leider nicht vorher gemacht
mist. das ist mir durchgegangen. hab ihn entfernt.

das system hatte mir jetzt angeboten, den speicherpool "online zusammenzustellen". das ist auch nicht erfolgreich gewesen, nun ist das volume nicht mehr im speicherpool.

Bin morgen ab 8:00 online
1000dank. ich nicht so früh, aber gegen 9h bin ich auch dran.
wenn alle stricke reißen, baue ich eine alte platte wieder ein und versuche den vorgang von vorne. :) die alten platten wissen ja nicht, was derweil alles passiert ist. mir gehen 10 bilder verloren, die heute gesynct wurden, das ist nicht so schlimm. lässt sich auch nochmal nach syncen vom handy.

ich fahre die maschine jetzt erstmal runter.
 
  • Like
Reaktionen: ctrlaltdelete
@goetz 😂 es ist etwas spät geworden, les dir den Anfang bitte durch, alle Befehle selbst zu eruieren war mir etwas mühselig
Edit: Und bei solchen verdrehten Sachen hilfreich, ist die Frage ob man 2 mal grow überhaupt zurückbiegen kann ohne Neuanlage. Und bis auf apt war das auch schlüssig.
 
Zuletzt bearbeitet:
  • Love
Reaktionen: suicidus
Guten Morgen.

Das NAS ist mit der alten 4TB Platte up and running. Die 8TB Platte wurde resettet - also frisch formatiert - und wird jetzt für einen neuen Versuch in das 4TB Raid eingebunden.

Die cat /proc/mdstat Tabelle sieht stand jetzt wie folgt aus:

Personalities : [raid1]
md3 : active raid1 sdb6[2]
976742912 blocks super 1.2 [2/1] [_U]
md2 : active raid1 sdb5[3]
2925435456 blocks super 1.2 [2/1] [_U]
md1 : active raid1 sdb2[1]
2097088 blocks [2/1] [_U]
md0 : active raid1 sdb1[1]
2490176 blocks [2/1] [_U]
unused devices: <none>

Bis das Raid repariert ist, dauert es bis ca. morgen früh. Die mdstat Tabelle wird dann ja ähnlich aussehen, nur das _U wird U_ sein, weil ja dann die Platte im anderen Slot aktiv ist.

Es wird hoffentlich richtig funktionieren wenn ich den --grow Befehl direkt auf md3 ausführe.

Gruß - Sui
 
Hast du den Cache rausgenommen?
Ich wäre einen anderen Weg gegangen. Jetzt hast du ja wieder md2 und md3?
1. Mit der 4 TB starten
2. 8 TB als neuen Speicherpool 2 und neues Volume 2 aufsetzen
3. Ordnereigenschaften auf Volume 2 ändern
4. Alle Apss mit appmover verschieben, ggf. Docker, VMs manuell sichern
5. Speicherpool 1 löschen
 
Ja der Cache ist raus.

Ich kann diesen Weg noch gehen. Den Rebuild Prozess habe ich noch nicht angestoßen.

Mein Ziel ist ja, möglichst mit wenig Aufwand mit der Konfiguration die neue Platte in place zu bringen. Habe gelesen, Backup einspielen führt mitunter trotzdem zu Konfigurationsaufwand, den ich nicht haben möchte - es läuft aktuell alles so schön.

Gibt es zu deinem empfohlenen Weg eine genauere Anleitung? Dann schaue ich mir die mal an.

Danke & Gruß

PS: Interessant, dass das NAS trotzdem weiß, das auf der Platte mal ein abgestürztes Volume war.
1739865702707.png
 
Ich würde das clean mit einem neuen SPeicherpool und appmover machen, nutz du Docker, VMs, spezielle non Synology Pakete?
 
  • Like
Reaktionen: dil88
Was sagt:
parted /dev/sdb print free

Und das wundert mich?
unused devices: <none>
 
Und die Vorgehensweise ist ganz simpel:
1. Mit der 4 TB starten
2. 8 TB als neuen Speicherpool 2 und neues Volume 2 aufsetzen, entweder Basic oder SHR ohne Datenschutz!
3. Ordnereigenschaften auf Volume 2 ändern, warten bis alle Daten verschoben wurden
4. Alle Apss mit appmover verschieben, ggf. Docker, VMs manuell sichern
https://github.com/007revad/Synology_app_mover
Alles testen und dann
5. Speicherpool 1 löschen
 
Zuletzt bearbeitet:
  • Like
Reaktionen: dil88
Welche DS hast du eigentlich?
 
Ja, clean mag ich ja auch. Wenn das gut funktioniert. Ich habe nix spezielles würde ich sagen (s. Screenshot unten), aber Docker mit 3 Containern (adguard, vaultwarden und guacamole).

parted /dev/sdb print free
Model: WDC WD40EFRX-68N32N0 (scsi)
Disk /dev/sdb: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number Start End Size File system Name Flags
17.4kB 1049kB 1031kB Free Space
1 1049kB 2551MB 2550MB ext4 raid
2 2551MB 4699MB 2147MB linux-swap(v1) raid
4699MB 4840MB 142MB Free Space
5 4840MB 3000GB 2996GB raid
3000GB 3000GB 8241kB Free Space
6 3000GB 4001GB 1000GB raid
4001GB 4001GB 106MB Free Space

Warum dort zwei Partitionen angelegt sind, weiß ich leider nicht.

1739866831578.png
 
Dann sollte das easy gehen, exportiere vorher noch zur Sicherheit die Container in einen Ordner:
 

Anhänge

  • Container_Manager_Export.png
    Container_Manager_Export.png
    112,1 KB · Aufrufe: 2
Evtl. musst du nach der ganzen Aktion die Pfade der Mounts im Container Manager anpassen, da dann Volume 2
 
Reihenfolge angepasst:
Und die Vorgehensweise ist ganz simpel:
1. Mit der 4 TB starten
2. 8 TB als neuen Speicherpool 2 und neues Volume 2 aufsetzen, entweder Basic oder SHR ohne Datenschutz! Edit mit BTRFS
3. Alle Apss mit appmover verschieben, ggf. Docker, VMs manuell sichern
https://github.com/007revad/Synology_app_mover
4. Ordnereigenschaften auf Volume 2 ändern, warten bis alle Daten verschoben wurden
Alles testen und dann
5. Speicherpool 1 löschen
Edit: Hier änderst du die Ordnereigenschaften aufs neue Volume
 

Anhänge

  • 1739867821894.png
    1739867821894.png
    174,9 KB · Aufrufe: 2
Zuletzt bearbeitet:
  • Love
Reaktionen: suicidus
Habe ich es überlesen? Welche DS hast du? Es wäre auch zu überlegen die Docker gleich auf die NVME-SSD zu packen:
 
Und???
 
  • Like
Reaktionen: suicidus
Ich habe den Speicher-Pool 2 und das Volume 2 mit der vollen Kapazität erstellt. Dann die Laufwerksüberprüfung aktiviert, das läuft das jetzt erstmal ne Zeit. Habe sonst keine weiteren Schritte gemacht.

Kann ich die Umstellung trotzdem schon machen oder soll ich das vorher durchlaufen lassen?
 
Zuletzt bearbeitet:
Nein, lass die erst durchlaufen, das blockiert sich sonst nur gegenseitig und ist auch nicht wirklich schneller.
 
  • Like
Reaktionen: suicidus
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat