Speicherplatzrückgewinnung (Speicher-Manager)

the_baker

Benutzer
Mitglied seit
20. Okt 2017
Beiträge
108
Punkte für Reaktionen
2
Punkte
18
Um 13:02 durchgeführt:

Code:
admin@ds:~$ ls -als /var/log | grep " 30 " | grep " 13:0"
 544 -rw-r-----  1 root                log                  552606 May 30 13:02 auth.log
 184 -rw-rw----  1 system              log                  184157 May 30 13:02 bash_history.log
2748 -rw-rw----  1 system              log                 2809404 May 30 13:02 kern.log
1604 -rw-rw----  1 system              log                 1636355 May 30 13:02 messages
1792 -rw-rw----  1 system              log                 1830349 May 30 13:02 rm.log
 176 -rw-rw----  1 system              log                  175461 May 30 13:00 space_operation.log
   4 drwx------  2 system              log                    4096 May 30 13:02 synolog
5184 -rw-rw----  1 system              log                 5301561 May 30 13:02 syno_md_correction.log
 100 -rw-rw----  1 system              log                   96170 May 30 13:00 synoplugin.log
 700 -rw-rw----  1 system              log                  708865 May 30 13:00 synoscheduler.log
 156 -rw-rw----  1 system              log                  152766 May 30 13:02 synosnmpcd.log
 

the_baker

Benutzer
Mitglied seit
20. Okt 2017
Beiträge
108
Punkte für Reaktionen
2
Punkte
18
Das auth.log ist ein Passwortfehler eines Users beim Versuch auf Mails zuzugreifen. Das gab es vermutlich schon vor dem Update. Dann gibt es noch viele mysql-Zugriffe.


messages scheint auf das Problem zu zeigen:

Code:
2024-05-30T13:08:25+02:00 ds kernel: [990761.948405] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:25+02:00 ds kernel: [990762.095592] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:26+02:00 ds kernel: [990762.378713] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:26+02:00 ds kernel: [990762.387887] BTRFS error (device dm-3): BTRFS: dm-3 failed to repair parent transid verify failure on 1347059613696, mirror = 2

2024-05-30T13:08:26+02:00 ds kernel: [990762.402912] BTRFS error (device dm-3): cannot fix 1347059613696, record in meta_err
2024-05-30T13:08:26+02:00 ds kernel: [990762.411619] BTRFS error (device dm-3): Failed to btrfs find orphan roots, err:-5
2024-05-30T13:08:30+02:00 ds kernel: [990766.490464] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:30+02:00 ds kernel: [990766.636636] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:30+02:00 ds kernel: [990766.920106] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:30+02:00 ds kernel: [990766.929343] BTRFS error (device dm-3): BTRFS: dm-3 failed to repair parent transid verify failure on 1347059613696, mirror = 1

2024-05-30T13:08:30+02:00 ds kernel: [990766.945949] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:30+02:00 ds kernel: [990767.092080] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:31+02:00 ds kernel: [990767.375680] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-30T13:08:31+02:00 ds kernel: [990767.384879] BTRFS error (device dm-3): BTRFS: dm-3 failed to repair parent transid verify failure on 1347059613696, mirror = 2

2024-05-30T13:08:31+02:00 ds kernel: [990767.400049] BTRFS error (device dm-3): cannot fix 1347059613696, record in meta_err
2024-05-30T13:08:31+02:00 ds kernel: [990767.408779] BTRFS error (device dm-3): Failed to btrfs find orphan roots, err:-5


rm.log ist mit mariadb Meldungen geflutet
Code:
2024-05-30T13:10:03+02:00 ds rm[5703]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mariadb-waitpid"]
2024-05-30T13:10:03+02:00 ds rm[5707]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mbstream"]
2024-05-30T13:10:03+02:00 ds rm[5711]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/msql2mysql"]
2024-05-30T13:10:03+02:00 ds rm[5715]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/myisamchk"]
2024-05-30T13:10:03+02:00 ds rm[5719]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/myisam_ftdump"]
2024-05-30T13:10:03+02:00 ds rm[5723]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/myisamlog"]
2024-05-30T13:10:03+02:00 ds rm[5727]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/myisampack"]
2024-05-30T13:10:03+02:00 ds rm[5731]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/my_print_defaults"]
2024-05-30T13:10:03+02:00 ds rm[5735]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/myrocks_hotbackup"]
2024-05-30T13:10:03+02:00 ds rm[5739]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql"]
2024-05-30T13:10:03+02:00 ds rm[5743]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqlaccess"]
2024-05-30T13:10:03+02:00 ds rm[5747]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqladmin"]
2024-05-30T13:10:03+02:00 ds rm[5751]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqlbinlog"]
2024-05-30T13:10:03+02:00 ds rm[5755]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqlcheck"]
2024-05-30T13:10:03+02:00 ds rm[5759]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_client_test"]
2024-05-30T13:10:03+02:00 ds rm[5763]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_client_test_embedded"]
2024-05-30T13:10:03+02:00 ds rm[5767]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_convert_table_format"]
2024-05-30T13:10:03+02:00 ds rm[5771]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqld"]
2024-05-30T13:10:03+02:00 ds rm[5775]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqld_multi"]
2024-05-30T13:10:03+02:00 ds rm[5779]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqld_safe"]
2024-05-30T13:10:03+02:00 ds rm[5783]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqld_safe_helper"]
2024-05-30T13:10:03+02:00 ds rm[5787]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqldump"]
2024-05-30T13:10:03+02:00 ds rm[5791]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqldumpslow"]
2024-05-30T13:10:03+02:00 ds rm[5795]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_embedded"]
2024-05-30T13:10:03+02:00 ds rm[5799]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_find_rows"]
2024-05-30T13:10:03+02:00 ds rm[5803]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_fix_extensions"]
2024-05-30T13:10:03+02:00 ds rm[5807]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqlhotcopy"]
2024-05-30T13:10:03+02:00 ds rm[5811]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqlimport"]
2024-05-30T13:10:03+02:00 ds rm[5815]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mariadb-install-db"]
2024-05-30T13:10:03+02:00 ds rm[5819]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_ldb"]
2024-05-30T13:10:03+02:00 ds rm[5823]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_plugin"]
2024-05-30T13:10:03+02:00 ds rm[5827]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_setpermission"]
2024-05-30T13:10:03+02:00 ds rm[5831]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqlshow"]
2024-05-30T13:10:03+02:00 ds rm[5835]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqlslap"]
2024-05-30T13:10:03+02:00 ds rm[5839]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqltest"]
2024-05-30T13:10:03+02:00 ds rm[5843]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysqltest_embedded"]
2024-05-30T13:10:03+02:00 ds rm[5847]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_tzinfo_to_sql"]
2024-05-30T13:10:03+02:00 ds rm[5851]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_upgrade"]
2024-05-30T13:10:03+02:00 ds rm[5855]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/mysql_waitpid"]
2024-05-30T13:10:03+02:00 ds rm[5859]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/perror"]
2024-05-30T13:10:03+02:00 ds rm[5863]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/replace"]
2024-05-30T13:10:03+02:00 ds rm[5867]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/resolveip"]
2024-05-30T13:10:03+02:00 ds rm[5871]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/resolve_stack_dump"]
2024-05-30T13:10:03+02:00 ds rm[5875]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/sst_dump"]
2024-05-30T13:10:03+02:00 ds rm[5879]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/test-connect-t"]
2024-05-30T13:10:03+02:00 ds rm[5883]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/wsrep_sst_backup"]
2024-05-30T13:10:03+02:00 ds rm[5887]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/wsrep_sst_common"]
2024-05-30T13:10:03+02:00 ds rm[5891]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/wsrep_sst_mariabackup"]
2024-05-30T13:10:03+02:00 ds rm[5895]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/wsrep_sst_mysqldump"]
2024-05-30T13:10:03+02:00 ds rm[5899]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/wsrep_sst_rsync"]
2024-05-30T13:10:03+02:00 ds rm[5903]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/bin/wsrep_sst_rsync_wan"]
2024-05-30T13:10:03+02:00 ds rm[5911]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/lib/mysql"]
2024-05-30T13:10:03+02:00 ds rm[5915]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/lib/libmysqlclient.so"]
2024-05-30T13:10:03+02:00 ds rm[5922]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/lib/libmysqlclient_r.so"]
2024-05-30T13:10:03+02:00 ds rm[5932]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/lib/libmysqld.so"]
2024-05-30T13:10:03+02:00 ds rm[5940]: uid: 0, euid: 0, arguments:["/usr/local/mariadb10/share/mysql"]


synosnmpcd:

Code:
2024-05-30T13:11:50+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:396 The number of the record [0]
2024-05-30T13:11:58+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:394 Flush the data into DB [0, 1717067461]
2024-05-30T13:11:58+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:396 The number of the record [0]
2024-05-30T13:12:07+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:394 Flush the data into DB [1717067520, 1717067520]
2024-05-30T13:12:07+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:396 The number of the record [1]
2024-05-30T13:12:14+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:394 Flush the data into DB [1717067520, 1717067520]
2024-05-30T13:12:14+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:396 The number of the record [1]
2024-05-30T13:12:23+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:394 Flush the data into DB [1717067520, 1717067520]
2024-05-30T13:12:23+02:00 ds synosnmpcd[21861]: db_handler_class.cpp:396 The number of the record [1]
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.565
Punkte für Reaktionen
3.607
Punkte
468
Puh, sagt mir jetzt nichts. Klingt aber nach irgendwelchen Reparaturversuchen am Filesystem oder am Raid, die da nicht klappen.
Schau mal mit "cat /proc/mdstat", ob da ein Raid-Rebuild o.ä. läuft. Bei mir gibt's übrigens kein syno_md_correction.log.
Edit: Steht im Protokoll-Center bei den Laufwerks-Logs irgend etwas drin?
 
Zuletzt bearbeitet:

the_baker

Benutzer
Mitglied seit
20. Okt 2017
Beiträge
108
Punkte für Reaktionen
2
Punkte
18
Der letzte Eintrag im Protokollcenter zu Laufwerken sind die manuellen SMART-Tests.

Code:
more /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md3 : active raid1 nvme0n1p1[0] nvme1n1p1[1]
      468846912 blocks super 1.2 [2/2] [UU]
      
md2 : active raid5 sda5[0] sdd5[3] sdc5[2] sdb5[1]
      29284796928 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      
md1 : active raid1 sda2[0] sdd2[2] sdc2[3] sdb2[1]
      2097088 blocks [4/4] [UUUU]
      
md0 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
      2490176 blocks [4/4] [UUUU]
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.565
Punkte für Reaktionen
3.607
Punkte
468
Du hast also 4 Platten und 2 NVMEs? Richtig? md2 dürfte sein Speicherpool1/Volume1 sein, md3 dein Speicherpool2/Volume2 auf NVME.
Also Raid-technisch läuft da grad nichts, aber ich vermute eher, dass das Filesystem auf Volume1 einen Hau hat.
Hast du schon die Smartwerte aller 4 Platten gecheckt?

Und probiere auch mal folgende Befehle aus
Code:
btrfs device stats /volume1
btrfs scrub status /volume1
btrfs filesystem df /volume1
btrfs filesystem show
ob da irgendwelche Fehler auftauchen.
 

the_baker

Benutzer
Mitglied seit
20. Okt 2017
Beiträge
108
Punkte für Reaktionen
2
Punkte
18
Die SMART-Werte sind weiter oben in diesem Thread.

btrfs device stats /volume1
[/dev/mapper/cachedev_0].write_io_errs 0
[/dev/mapper/cachedev_0].read_io_errs 0
[/dev/mapper/cachedev_0].flush_io_errs 0
[/dev/mapper/cachedev_0].corruption_errs 0
[/dev/mapper/cachedev_0].generation_errs 0

ash-4.4# btrfs scrub status /volume1
scrub status for a5c9148c-ae7a-4142-a7b0-d8ba64512e6a
scrub resumed at Sat May 11 12:00:02 2024 and finished after 24:08:45
total bytes scrubbed: 20.95TiB with 0 errors

ash-4.4# btrfs filesystem df /volume1
Data, single: total=23.65TiB, used=20.86TiB
System, DUP: total=40.00MiB, used=400.00KiB
Metadata, DUP: total=459.00GiB, used=115.25GiB
GlobalReserve, single: total=2.00GiB, used=0.00B

ash-4.4# btrfs filesystem show
Label: '2018.02.09-16:16:25 v15254' uuid: a5c9148c-ae7a-4142-a7b0-d8ba64512e6a
Total devices 1 FS bytes used 20.97TiB
devid 1 size 27.27TiB used 24.55TiB path /dev/mapper/cachedev_0
 
  • Like
Reaktionen: maxblank

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.565
Punkte für Reaktionen
3.607
Punkte
468
Sorry, keine Idee mehr. So fit bin ich nun auch nicht mit BTRFS :rolleyes:
Wächst die syno_md_correction.log weiter?
 

the_baker

Benutzer
Mitglied seit
20. Okt 2017
Beiträge
108
Punkte für Reaktionen
2
Punkte
18
Ja, die wächst weiter.
Die einzige Stelle, die Google zur Logdatei kennt, ist dieser Thread.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.565
Punkte für Reaktionen
3.607
Punkte
468
Mach ein Ticket bei Synology auf. Ich fürchte, hier kann dir keiner mehr helfen.
 

the_baker

Benutzer
Mitglied seit
20. Okt 2017
Beiträge
108
Punkte für Reaktionen
2
Punkte
18
was ist denn dieses device dm-3 ?


Code:
2024-05-31T00:27:37+02:00 ds kernel: [1031515.000490] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-31T00:27:38+02:00 ds kernel: [1031515.147872] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-31T00:27:38+02:00 ds kernel: [1031515.438791] parent transid verify failed on 1347059613696 wanted 24905708 found 26050945
2024-05-31T00:27:38+02:00 ds kernel: [1031515.448076] BTRFS error (device dm-3): BTRFS: dm-3 failed to repair parent transid verify failure on 1347059613696, mirror = 2

2024-05-31T00:27:38+02:00 ds kernel: [1031515.463474] BTRFS error (device dm-3): cannot fix 1347059613696, record in meta_err
2024-05-31T00:27:38+02:00 ds kernel: [1031515.472281] BTRFS error (device dm-3): Failed to btrfs find orphan roots, err:-5
 

maxblank

Benutzer
Contributor
Sehr erfahren
Mitglied seit
25. Nov 2022
Beiträge
3.818
Punkte für Reaktionen
1.987
Punkte
244
Das ist der sogenannte "Device Mapper", der virtuelle blockoriente Geräte (device dm-3 in deinem Fall) erzeugen kann. DM steht in Verbindung mit LVM (Logical Volume Manager), Luks (Verschlüsselung) und Snapshots. Da hat es bei dir scheinbar einiges zerlegt und btrfs versucht dies zu reparieren, scheinbar erfolglos.

Daher wie von @Benares bereits geschrieben, mach ein Ticket bei Synology auf,
 

the_baker

Benutzer
Mitglied seit
20. Okt 2017
Beiträge
108
Punkte für Reaktionen
2
Punkte
18
Ich werde wahrscheinlich die Situation zum Anlass nehmen, meine DS komplett neu aufzusetzen, dann auch statt einem Volume mit 4 Disks 2 Volumes mit je 2 Disks. Um den Platz zu gewinnen passe ich die Backup-Strategie an. Möglicherweise schlummern auch ein paat TB in den verschollenen Snapshots.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat