NAS "weigert sich" herunter zu fahren...

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Ich räume gerade das Verzeichnis meines Synology-Drives auf. D.h. ich verschiebe einige Dateien durch die Gegend, erstelle Verzeichnisse, verschiebe diese etc.

Eigentlich kam die Diskstation DS216+II damit auch gut zu recht, doch in der letzten Zeit ist es etwas holprig und der Zähler in der Statusleiste der noch zu synchronisieren Dateien bleibt unverändert. Ich habe dann die Diskstation herunter gefahren (per Knopf am Gerät, da die Weboberfläche Timeouts meldete).

Den Powerknopf halte ich für ein paar Sekunden gedrückt bis die LED blinkt. Nach 10 Minuten war die DiskStation herunter gefahren und ich konnte sie neu starten. Das Problem war gelöst. Doch nun habe ich schon mindestens viermal das Herunterfahren angefordert, doch nach ein paar Minuten hört die LED auf zu blinken und leuchtet wieder ganz normal. Was kann ich tun? Den ssh-Zugang habe vor ein paar Wochen geschlossen, da die DiskStation aus dem Internet erreichbar ist und ich Angriffe auf diesen Service bemerkte.

Danke für Tipps!
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Ich habe jetzt ein Support-Ticket eröffnet.
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
367
Punkte für Reaktionen
96
Punkte
28
Hast du vielleicht mal probiert den Neustart über die Konsole anzustoßen?

Bash:
ssh benutzer@192.168.178.xxx
Passwort:
sudo -i
Passwort:

reboot now
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
367
Punkte für Reaktionen
96
Punkte
28
Das hab ich wohl überlesen, sorry. Hast du keine Möglichkeit mehr auf den DSM zu kommen? Hängt die Oberfläche weiterhin? Gibt es Aktivität auf den Platten? Es gäbe halt noch die unkonventionelle Möglichkeit das Gerät hart auszuschalten, sprich Stecker ziehen. Ob das dann aber so gut für die Platten bzw. den RAID-Verbund ist, steht auf einem anderen Blatt. Aber zumindest sollte man wieder auf die Oberfläche kommen.
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Es gäbe halt noch die unkonventionelle Möglichkeit das Gerät hart auszuschalten, sprich Stecker ziehen.
Den Power-Knopf für 10 Sekunden drücken funktioniert auch. :)
Habe ich aber schon 2x gemacht.

Ansonsten leuchtet die Status LED.permanent grün und die anderen (auch die blaue Power-LED) blinken fröhlich vor sich her.
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
In dem Augenblick wo ich das vorherige abgeschickt habe, popten bei mir wieder die Sync-Status-Meldungen der Cloud-STation auf (d.h. die Verbindung ist wieder hergestellt). Und ich habe Mails meiner anderen DiskStations erhalten, dass sie wieder mit der USV verbunden sind. Die blaue Power-LED blinkt aber weiterhin... :unsure:
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
So und nun (ca. 14:28h) ist das SynolgyDrive wieder im Status "Connecting...". LEDs blinken wie zuvor.

Die kurze "Normalität" habe ich genutzt um via WebFrontend SSH wieder einzuschalten, doch dauert auch hier der Verbindungsaufbau Ewigkeiten...

Und soeben (14:36h) melden die anderen DiskStations, dass der CMS-Host nicht mehr verfügbar ist...
 
Zuletzt bearbeitet:

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
367
Punkte für Reaktionen
96
Punkte
28
Vielleicht würde es was bringen, wenn du sie mal neu aufsetzt. Sofern das ne Option ist … Falls du per SSH wieder auf die DS kommst, könntest du mal die Plattenbelegung über
Bash:
df -h
abfragen und hier posten.
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Code:
root@NAS:~# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/md0        2.3G  1.3G  938M  58% /
none            451M     0  451M   0% /dev
/tmp            455M  4.5M  450M   1% /tmp
/run            455M  3.7M  451M   1% /run
/dev/shm        455M  4.0K  455M   1% /dev/shm
none            4.0K     0  4.0K   0% /sys/fs/cgroup
cgmfs           100K     0  100K   0% /run/cgmanager/fs
/dev/vg1000/lv  5.4T  3.2T  2.3T  59% /volume1
/dev/sdq1        15G   12M   15G   1% /volumeUSB1/usbshare
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Habe jetzt auch den Shutdown angefordert:

Code:
root@NAS:~# shutdown now

Broadcast message from master09@NAS
    (/dev/pts/25) at 19:38 ...

The system is going down for maintenance NOW!
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Vielleicht würde es was bringen, wenn du sie mal neu aufsetzt.
Das habe ich mir schon überlegt. Wahrscheinlich müsste mit DSM7 meine DS212j auswechseln und dann die Geräte durchrauschen und dann würde diese DS216+II durch das 220er-Modell ersetzt. Aber dieses NAS ist mein Hauptgerät und daher auch das technisch leistungsfähigste, welches für andere das Synology-Drive bereitstellt oder Fotos in der PhotoStation "filtert" und auch andere Services bereit stellt, weshalb ich nur ungern das Ding komplett neu aufsetzen möchte. Alle anderen nutze ich für interne Zwecke oder für Backups. Da wäre ein Neuaufsetzen einfacher.
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
367
Punkte für Reaktionen
96
Punkte
28
Also die Systempartition sieht mit 58% unauffällig aus. So richtig einen Reim darauf kann ich mir auch nicht machen. Natürlich kann ich dich verstehen, aber mir würde das mit der Zeit echt auf die Nerven gehen. Ich hoffe, jemand anders hat vielleicht noch eine Idee woran es liegen könnte.
 

DustFireSky

Benutzer
Mitglied seit
22. Sep 2014
Beiträge
346
Punkte für Reaktionen
57
Punkte
34
Schau dir bitte mal den Zustand der Festplatten im Detail an.
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Schau dir bitte mal den Zustand der Festplatten im Detail an.
Ich komme im Augenblick ja nicht an die Daten an, aber Ende Januar waren sie noch in Ordnung. Damals hatte die WD-RED 14.600 und die IronWolf 5.700 Betriebstunden auf dem Buckel. Also eigentlich noch im grünen Bereich.
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Was ich gerade in dmesg gefunden habe:
Code:
[34397.857026] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
[34397.865788] synoimgbkptool  D ffff880039e12040     0  4219   4174 0x00000000
[34397.873738]  ffff88000d67fd90 0000000000000086 000000000000c000 ffff88000d67ffd8
[34397.882070]  ffff88000d67ffd8 ffff88001e463800 ffffffff810b8087 0000000000000001
[34397.890436]  0000000000000000 7fffffffffffffff 7fffffffffffffff ffff88000d67fe88
[34397.898768] Call Trace:
[34397.901513]  [<ffffffff810b8087>] ? find_get_pages_tag+0xc7/0x1a0
[34397.908331]  [<ffffffff814b70ad>] ? schedule_timeout+0x15d/0x1e0
[34397.915058]  [<ffffffff8105fba6>] ? try_to_wake_up+0x186/0x2d0
[34397.921588]  [<ffffffff810c2e28>] ? pagevec_lookup_tag+0x18/0x20
[34397.928307]  [<ffffffff8104c6aa>] ? __queue_work+0xfa/0x280
[34397.934550]  [<ffffffff814b8b79>] ? wait_for_completion+0x99/0x100
[34397.941475]  [<ffffffff8105fd20>] ? wake_up_state+0x10/0x10
[34397.947714]  [<ffffffff811300c0>] ? generic_write_sync+0x60/0x60
[34397.954441]  [<ffffffff8112b6aa>] ? sync_inodes_sb+0x9a/0x1b0
[34397.960867]  [<ffffffff811300c0>] ? generic_write_sync+0x60/0x60
[34397.967596]  [<ffffffff81102716>] ? iterate_supers+0xa6/0xf0
[34397.973927]  [<ffffffff811302fe>] ? sys_sync+0x2e/0x90
[34397.979697]  [<ffffffff814bcdc4>] ? system_call_fastpath+0x22/0x27
[34397.986609] INFO: task afpd:21669 blocked for more than 120 seconds.
[34397.993711] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
[34398.002478] afpd            D ffff880039e12040     0 21669  10309 0x00000004
[34398.010390]  ffff88000e3f7d90 0000000000000082 000000000000c000 ffff88000e3f7fd8
[34398.018709]  ffff88000e3f7fd8 ffff880035e50040 ffffffff810b8087 000000000041e000
[34398.027066]  0000000000000000 7fffffffffffffff 7fffffffffffffff ffff88000e3f7e88
Hilft das?
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
14.076
Punkte für Reaktionen
3.896
Punkte
488

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Das ist der Output von TOP
Code:
top - 23:24:11 up 1 day,  1:17,  2 users,  load average: 0.04, 3.93, 20.86
Tasks:  95 total,   1 running,  94 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.3 us,  0.0 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
GiB Mem :    0.888 total,    0.562 free,    0.057 used,    0.269 buff/cache
GiB Swap:    2.533 total,    2.524 free,    0.009 used.    0.575 avail Mem 

  PID USER      PR  NI    VIRT    RES  %CPU %MEM     TIME+ S COMMAND                                                                                                                                       
28822 root      20   0   27.3m   1.7m   0.7  0.2   0:00.33 R top                                                                                                                                           
    1 root      20   0   25.4m   4.8m   0.0  0.5   0:55.13 S /sbin/init                                                                                                                                    
    2 root      20   0    0.0m   0.0m   0.0  0.0   0:26.82 S [kthreadd]                                                                                                                                    
    3 root      20   0    0.0m   0.0m   0.0  0.0   0:34.44 S [ksoftirqd/0]                                                                                                                                 
    5 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [kworker/0:0H]                                                                                                                                
    7 root      rt   0    0.0m   0.0m   0.0  0.0   0:23.82 S [migration/0]                                                                                                                                 
    8 root      20   0    0.0m   0.0m   0.0  0.0   0:00.00 S [rcu_bh]                                                                                                                                      
    9 root      20   0    0.0m   0.0m   0.0  0.0   1:19.83 S [rcu_sched]                                                                                                                                   
   10 root      rt   0    0.0m   0.0m   0.0  0.0   0:00.28 S [watchdog/0]                                                                                                                                  
   11 root      rt   0    0.0m   0.0m   0.0  0.0   0:01.06 S [watchdog/1]                                                                                                                                  
   12 root      rt   0    0.0m   0.0m   0.0  0.0   1:13.28 S [migration/1]                                                                                                                                 
   13 root      20   0    0.0m   0.0m   0.0  0.0   0:34.35 S [ksoftirqd/1]                                                                                                                                 
   15 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [kworker/1:0H]                                                                                                                                
   16 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.05 S [khelper]                                                                                                                                     
   17 root      20   0    0.0m   0.0m   0.0  0.0   0:00.01 S [kdevtmpfs]                                                                                                                                   
   18 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [netns]                                                                                                                                       
  178 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.12 S [writeback]                                                                                                                                   
  182 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [kintegrityd]                                                                                                                                 
  183 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [bioset]                                                                                                                                      
  184 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [crypto]                                                                                                                                      
  186 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [kblockd]                                                                                                                                     
  294 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [ata_sff]                                                                                                                                     
  304 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [md]                                                                                                                                          
  449 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [rpciod]                                                                                                                                      
  495 root      20   0    0.0m   0.0m   0.0  0.0   0:01.22 S [khungtaskd]                                                                                                                                  
  506 root       0 -20    0.0m   0.0m   0.0  0.0  19:50.34 S [kswapd0]                                                                                                                                     
  510 root      25   5    0.0m   0.0m   0.0  0.0   0:00.00 S [ksmd]                                                                                                                                        
  513 root      20   0    0.0m   0.0m   0.0  0.0   0:00.00 S [fsnotify_mark]                                                                                                                               
  516 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [nfsiod]                                                                                                                                      
 2903 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [iscsi_eh]                                                                                                                                    
 2944 root      20   0    0.0m   0.0m   0.0  0.0   0:00.06 S [scsi_eh_0]                                                                                                                                   
 2955 root      20   0    0.0m   0.0m   0.0  0.0   0:00.06 S [scsi_eh_1]                                                                                                                                   
 3115 root      20   0    0.0m   0.0m   0.0  0.0   0:00.01 S [scsi_eh_2]                                                                                                                                   
 3301 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [raid5wq]                                                                                                                                     
 3341 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [deferwq]                                                                                                                                     
 3459 root      20   0    0.0m   0.0m   0.0  0.0   0:00.03 S [khubd]                                                                                                                                       
 3463 root      20   0    0.0m   0.0m   0.0  0.0   0:00.00 S [kethubd]                                                                                                                                     
 3639 root       0 -20    0.0m   0.0m   0.0  0.0   1:32.99 S [kworker/0:1H]                                                                                                                                
 3642 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [bioset]                                                                                                                                      
 3643 root      20   0    0.0m   0.0m   0.0  0.0   0:03.18 S [md0_raid1]                                                                                                                                   
 3644 root       0 -20    0.0m   0.0m   0.0  0.0   1:32.77 S [kworker/1:1H]                                                                                                                                
 3662 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [bioset]                                                                                                                                      
 3663 root      20   0    0.0m   0.0m   0.0  0.0   0:06.12 S [md1_raid1]                                                                                                                                   
 3899 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [ext4-group-desc]                                                                                                                             
 3900 root      20   0    0.0m   0.0m   0.0  0.0   0:08.63 S [jbd2/md0-8]                                                                                                                                  
 3901 root       0 -20    0.0m   0.0m   0.0  0.0   0:00.00 S [ext4-dio-unwrit]
 

Datensammler

Benutzer
Mitglied seit
04. Aug 2012
Beiträge
482
Punkte für Reaktionen
11
Punkte
24
Ich vermelde, dass sich die DS216+II soeben gegen 0:11 Uhr abgeschaltet hat.
Dieses war der längste Shutdown eines Systems, den ich bisher erlebt habe.
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
367
Punkte für Reaktionen
96
Punkte
28
afpd - Ist das nicht einer der Dateidienste für Apple?
Genau, der sorgt ja dafür, dass man mit'm Mac auf die DS zugreifen kann.

@Datensammler
Hast du AFP auf deiner DS laufen und greifst über einen Mac zu? Wie hast du denn deine Synology-Drives aufgeräumt? Über den Mac oder über die Filestation? Vielleicht wurden gewisse Sachen im Hintergrund noch nicht fertig abgearbeitet und deswegen blockierte der Dienst?! Da ja AFP schon länger abgekündigt ist, hast du schon mal drüber nachgedacht, das Ganze auf SMB umzustellen?
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat