Raid entfernen

Und bitte auch noch:
fdisk -l /dev/sda
 
  • Like
Reaktionen: suicidus
vgdisplay --verbose
----------------------
Using volume group(s) on command line.
--- Volume group ---
VG Name shared_cache_vg1
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 3
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size 238.46 GiB
PE Size 4.00 MiB
Total PE 61047
Alloc PE / Size 60931 / 238.01 GiB
Free PE / Size 116 / 464.00 MiB
VG UUID [...]

--- Logical volume ---
LV Path /dev/shared_cache_vg1/syno_vg_reserved_area
LV Name syno_vg_reserved_area
VG Name shared_cache_vg1
LV UUID [...]
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 12.00 MiB
Current LE 3
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 252:3

--- Logical volume ---
LV Path /dev/shared_cache_vg1/alloc_cache_1
LV Name alloc_cache_1
VG Name shared_cache_vg1
LV UUID [...]
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 1
LV Size 238.00 GiB
Current LE 60928
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 252:4

--- Physical volumes ---
PV Name /dev/md4
PV UUID [...]
PV Status allocatable
Total PE / Free PE 61047 / 116

--- Volume group ---
VG Name vg1
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 13
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 3.63 TiB
PE Size 4.00 MiB
Total PE 952679
Alloc PE / Size 952579 / 3.63 TiB
Free PE / Size 100 / 400.00 MiB
VG UUID [...]

--- Logical volume ---
LV Path /dev/vg1/syno_vg_reserved_area
LV Name syno_vg_reserved_area
VG Name vg1
LV UUID [...]
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 12.00 MiB
Current LE 3
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 252:0

--- Logical volume ---
LV Path /dev/vg1/volume_1
LV Name volume_1
VG Name vg1
LV UUID [...]
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 1
LV Size 3.63 TiB
Current LE 952576
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 252:1

--- Physical volumes ---
PV Name /dev/md2
PV UUID [...]
PV Status allocatable
Total PE / Free PE 714217 / 0

PV Name /dev/md3
PV UUID [...]
PV Status allocatable
Total PE / Free PE 238462 / 100


fdisk -l /dev/sda
------------------
Disk /dev/sda: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Disk model: ST8000VN002-2ZM188
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: [...]

Device Start End Sectors Size Type
/dev/sda1 8192 16785407 16777216 8G Linux RAID
/dev/sda2 16785408 20979711 4194304 2G Linux RAID
/dev/sda5 21257952 5872130911 5850872960 2.7T Linux RAID
/dev/sda6 5872147008 7825634911 1953487904 931.5G Linux RAID
 
  • Love
Reaktionen: ctrlaltdelete
Kurzes Zwischenfazit. Du hast jetzt ein "RAID1" bestehend aus md2 (sda5) und md3 (sda6), das habe ich noch nicht gesehen.
 
  • Like
Reaktionen: suicidus
hm. :( könnte daran liegen, das ich den befehl "mdadm --grow --raid-devices=1 --force" zuerst auf /dev/md2 ausgeführt hatte (weil ich anscheinend nicht verstanden hatte, dass darüber md3 auch für sda galt und man evtl den "obersten" eintrag auswählen muss). nachdem das nicht erfolgreich war, und der zustand weiterhin "kritisch" angezeigt wurde, habe ich es für md3 ausgeführt, und dann ging es - wie geschrieben. :(
 
Genau, dadurch ist das Schlamassel entstanden.
Also, das geht, man muss den freien Speicher eine Partition für den LVM erstellen und die dann der VG1 zuweisen. Operation am offenen Herzen. Wie sieht es mit Backup aus? und ich würde vorher den "unsinnigen" Cache entfernen, der macht oft mehr Ärger als nutzen. Und nach dem Gebastel ist das immer noch keine saubere Lösung. Ganz ehrlich ich würde neu aufsetzen, obwohl mit diese OP reizt :cool:
 
  • Like
Reaktionen: suicidus
Ich habe jetzt auch mal die KI zur Hilfe genommen, dies ist der komplette Workaround, der ist auch in sich schlüssig:

Ja, es gibt eine Möglichkeit, dein SHR-Volume zu erweitern, ohne Daten zu verlieren! Der Trick ist, den freien Speicherplatz auf /dev/sda in dein bestehendes Volume zu integrieren.




🛠 Vorgehen zur Erweiterung ohne Datenverlust


1️⃣ Überblick: Dein aktuelles Setup


  • Dein Hauptvolume liegt auf /dev/vg1/volume_1 (~3.63 TB).
  • Es nutzt die RAID-Partitionen /dev/md2 und /dev/md3 auf /dev/sda5 und /dev/sda6.
  • Ca. 4 TB freier Speicher auf /dev/sda.
  • Ziel: Diesen Speicher in vg1 integrieren, ohne das Volume zu löschen.



2️⃣ Freien Speicher einer neuen Partition zuweisen


(1) Prüfen, ob noch ungenutzter Speicher auf /dev/sda existiert


parted /dev/sda print free<br>

Hier sollte ein großer freier Bereich (~4 TB) angezeigt werden.


(2) Neue Partition für den freien Speicher erstellen


Erstelle eine neue Partition für LVM:


parted /dev/sda mkpart primary 4007GB 8002GB<br>

Falls das nicht klappt, verwende einfach:


parted /dev/sda mkpart primary ext4 4007GB 100%<br>



3️⃣ Neue Partition als PV (Physical Volume) für LVM einbinden


(1) LVM-Physical Volume (PV) aus der neuen Partition erstellen


Angenommen, die neue Partition wurde als /dev/sda7 erstellt:


pvcreate /dev/sda7<br>

(2) Die neue Partition in deine Volume Group (vg1) aufnehmen


vgextend vg1 /dev/sda7<br>

(3) Prüfen, ob der freie Speicher jetzt in vg1 enthalten ist


vgdisplay vg1<br>

Hier sollte die VG Size um ca. 4 TB gewachsen sein.




4️⃣ Das vorhandene Volume (volume_1) vergrößern


(1) Volume um den neuen Platz erweitern


lvextend -l +100%FREE /dev/vg1/volume_1<br>

(2) Dateisystem auf die neue Größe anpassen


Falls dein Volume ext4 nutzt:


resize2fs /dev/vg1/volume_1<br>

Falls dein Volume Btrfs nutzt:


btrfs filesystem resize max /mnt/volume_1<br>



✅ Fazit: Dein Volume ist jetzt ohne Datenverlust erweitert!


  • Dein SHR-Volume (volume_1) nutzt jetzt den vollen 8 TB Speicherplatz.
  • Keine Formatierung nötig, daher keine Daten verloren.
  • Falls du DSM benutzt, wird der Speicher direkt im Speicher-Manager sichtbar.


 
  • Love
Reaktionen: suicidus
ich bin gerade dabei.

beim schritt 2 hat der befehl "parted /dev/sda mkpart primary 4007GB 8002GB" geklappt. anscheined wurde sda3 vergeben.

parted /dev/sda print free
----------------------------
Model: ATA ST8000VN002-2ZM1 (scsi)
Disk /dev/sda: 8002GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number Start End Size File system Name Flags
17.4kB 4194kB 4177kB Free Space
1 4194kB 8594MB 8590MB ext4 raid
2 8594MB 10.7GB 2147MB linux-swap(v1) raid
10.7GB 10.9GB 142MB Free Space
5 10.9GB 3007GB 2996GB raid
3007GB 3007GB 8241kB Free Space
6 3007GB 4007GB 1000GB raid
4007GB 4007GB 213kB Free Space
3 4007GB 8002GB 3995GB primary
8002GB 8002GB 335kB Free Space

wenn ich jetzt den nächsten befehl pvcreate /dev/sda3 eingebe kommt:
Device /dev/sda3 not found (or ignored by filtering).

weißt du, warum?
 
pvcreate /dev/sda7
 
vgextend vg1 /dev/sda3
Device /dev/sda3 not found (or ignored by filtering).
Unable to add physical volume '/dev/sda3' to volume group 'vg1'.
 
warte, einen Schritt nach dem anderen, du kannst nicht einfach was überspringen, du hzast schon genug Salat
Was sagt: lsblk
 
  • Like
Reaktionen: suicidus
Wenn das kein sda3 ist, dann Neustart
 
  • Like
Reaktionen: suicidus
und du bist root oder?
 
  • Like
Reaktionen: suicidus
ja ich bin root (sudo -i). lsblk gibt es nicht.
backup habe ich übrigens. ich habe auch noch die alten 4tb platten.

während das gerät gerade neustartet, habe ich was von einem befehlsfilter in der lvm.conf gelesen ...

nach neustart gleiche meldung beim befehl pvcreate.

parted /dev/sda print free
Model: ATA ST8000VN002-2ZM1 (scsi)
Disk /dev/sda: 8002GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number Start End Size File system Name Flags
17.4kB 4194kB 4177kB Free Space
1 4194kB 8594MB 8590MB ext4 raid
2 8594MB 10.7GB 2147MB linux-swap(v1) raid
10.7GB 10.9GB 142MB Free Space
5 10.9GB 3007GB 2996GB raid
3007GB 3007GB 8241kB Free Space
6 3007GB 4007GB 1000GB raid
4007GB 4007GB 213kB Free Space
3 4007GB 8002GB 3995GB primary
8002GB 8002GB 335kB Free Space
 
fdisk -l /dev/sda
------------------
Disk /dev/sda: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Disk model: ST8000VN002-2ZM188
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: D80F2F12-BC4E-476A-A870-B360EACF7E11

Device Start End Sectors Size Type
/dev/sda1 8192 16785407 16777216 8G Linux RAID
/dev/sda2 16785408 20979711 4194304 2G Linux RAID
/dev/sda3 7825635328 15628052479 7802417152 3.6T Linux filesystem
/dev/sda5 21257952 5872130911 5850872960 2.7T Linux RAID
/dev/sda6 5872147008 7825634911 1953487904 931.5G Linux RAID

Partition table entries are not in disk order.
 
  • Like
Reaktionen: suicidus
ich habe per VI in der lvm.conf den filter ausgeklammert. damit konnte ich die nächsten schritte alle erfolgreich bis zum vorletzten durchführen. der letzte bringt nochmal einen fehler:

btrfs filesystem resize max /mnt/volume_1
ERROR: resize: cannot stat /mnt/volume_1: No such file or directory

der speicher-manager zeigt mir jetzt an, dass das system eine unvollständige volume-erweiterung erkannt hat und bietet mir an, das zu reparieren. beim klick darauf kommt aber auch eine fehlermeldung.

vllt jetzt nochmal neustarten?
 
mount | grep vg1
 
  • Like
Reaktionen: suicidus
Falls dein Volume nicht in der Liste ist, versuche es zu mounten:
mount /dev/vg1/volume_1 /mnt/volume_1

und dann:
btrfs filesystem resize max /mnt/volume_1
 
  • Like
Reaktionen: suicidus
das mounten klappt noch nicht.

~ #mount | grep vg1
~# mount /dev/vg1/volume_1 /mnt/volume_1
mount: /mnt/volume_1: mount point does not exist.

habe mal nach "volume" gefiltert:
~# mount | grep volume
/dev/mapper/cachedev_0 on /volume1 type btrfs (rw,nodev,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,syno_allocator)
 
lvdisplay
 
  • Like
Reaktionen: suicidus
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat