NAS bootet nach Plattentausch nicht mehr; kurzzeitig doch mit degraded Volume; jetzt wieder nicht

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Hallo, ich hoffe das ist hier das richtige Unterforum für das Thema.

Meine DS410j arbeitete bis vor kurzem problemlos mit 4x2TB (RAID5). Eine von vier Platten meldete vor ein paar Tagen viele defekte Sektoren (wurde aber noch als "healthy" angezeigt). Ich habe Ersatz bestellt, das NAS heruntergefahren, und die Platte ausgewechselt.

Danach hat das NAS nicht mehr gebootet. Die Power LED hat einige Minuten geblinkt. Nach einer Weile hat die Power LED durchgängig geleuchtet, and die Status LED hat schnell orange geblinkt und das NAS gepiept. Gleichzeitig waren die Festplatten LEDs grün.

Das NAS taucht im Netzwerk mit dem richtigen Hostnamen auf. Die Weboberfläche ist allerdings nicht erreichbar, ping geht nicht und der DSAssistant findet das Gerät auch nicht.

Der Versuch mit einzelnen Platten zu booten, oder mit den 3 guten alten Platten ohne die neue Platte, oder in der ursprünglichen Konfiguration mit den 4 alten Platten, führt immer zum gleichen Ergebnis.

Booten ohne Festplatte geht soweit. Das NAS taucht im Netzwerk mit dem Standard Hostnamen "Disk Station" auf. Status LED ist grün. Ping funktioniert (zumindest kurzzeitig; oft gehen nur ein paar Pings, bevor das NAS wieder nicht nicht mehr antwortet). DSAssistant findet das NAS. Aber beim Versuch, das NAS neu zu initialisieren bricht die Verbindung ab.

Neu initialisieren mit nur der neuen Platte hat einmal funktioniert, aber beim Neustart dann Verbindungsabbruch.

Nach einer Pause über Nacht (vom Netz getrennt) habe ich es heute wieder mit den ursprünglichen 4 Platten probiert. Erstaunlicher Weise hat das NAS gebootet und ich konnte mich einloggen. Das Volume wurde as "degraded" angezeigt (es kamen auch diverse Statusnachrichten und -emails: "Volume 1 on DSDemmel has entered degraded mode [3/4]", "Consistency check of system volume (Swap) on DSDemmel is complete", "iSCSI LUN of Disk Group on DSDemmel has failed"). Auch wenn alle 4 Platten als "healthy" angezeigt wurden, wurde Disk 2 (die mit den fehlerhaften Sektoren, die getauscht werden soll) aus dem Verbund geworfen. Bei Disk 3 und 4 stand außerdem "Systempartition fehlerhaft", bei Disk 1 war sie wohl ok. Ein einfacher Neustart hat auch funktioniert.

Nachdem ich aber dann die Disk 2 wieder gewechselt hatte (im ausgeschalteten Zustand), um das RAID reparieren zu können, war es wieder wie zuvor, das NAS hat minutenlang gebootet um dann mit orange blinkender LED zu piepen und nicht erreichbar zu sein. Diverse Varianten und Plattenkombinationen führen wie gestern zum gleichen Ergebnis.

Hat irgendwer eine Idee, was hier los sein könnte? In einem anderen Forenbeitrag hatte jemand berichtet, dass in so einem Fall ein neues Netzteil helfen könnte. Ist das plausibel?

Meine DSM Version ist 5.2-5967 Update 9 (aktuellste für diese DS). Die Hardware ist ja schon älter; vielleicht ist es Zeit, eine neue DS anzuschaffen. Kann ich das (degradete) RAID Array in einer neuen DiskStation (z.B. DS420j) einsetzen und dort reparieren / verwenden?

Als ich gestern kurzzeitig wieder Zugriff hatte, hab ich die Konfiguration gesichert. Außerdem ist ein Backup der DS auf eine externe USB Festplatte vorhanden (2x wöchentlich; sollte alle relevanten Daten enthalten).
 

Benie

Benutzer
Contributor
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
8.530
Punkte für Reaktionen
3.531
Punkte
344
evtl. hilft die Bios Batterie auszutauschen
 

Georgius

Benutzer
Mitglied seit
10. Apr 2021
Beiträge
231
Punkte für Reaktionen
10
Punkte
18
Wielange gast Du gewarter? Soll dabei ja deutlich länger dauern
 

Benie

Benutzer
Contributor
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
8.530
Punkte für Reaktionen
3.531
Punkte
344
Ja, das habe ich mir auch gedacht, aber da er zwischendurch mehr oder weniger Zugriff hatte habe ich das wieder gedanklich verworfen aber möglich kann es natürlich trotzdem sein.
 
Zuletzt bearbeitet von einem Moderator:

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Danke für die Antworten!
evtl. hilft die Bios Batterie auszutauschen
BIOS Batterie hatte ich schonmal rausgetan, aber noch nicht gewechselt. Das werde ich morgen gleich mal testen.

Ach ja, den Hardware-Reset hatte ich heute mal ~15 Sekunden gedrückt (vom Netz getrennt). Keine Veränderung erkenntlich.
Wielange gast Du gewarter? Soll dabei ja deutlich länger dauern
Was meinst du genau? In welchem Zustand gewartet? Mit Platten bei orange blinkender Status LED und Piepsen? Da hab ich schonmal so 5-10min gewartet, aber nicht länger. Ist zwar etwas nervtötend, aber ich kanns mal 1-2h laufen lassen. Oder meinst du im Aus-Zustand vom Netz getrennt? Da warte ich oft nur so ~15 Sekunden.

Ansonsten sind die Timings: Ohne Platten nach 1-2min erreichbar. Mit Platten cirka 5min Bootvorgang (Power LED blinkt), danach Status LED orange blinked (mit Piepsen, Festplatten LED zeigen gelegentlichen Zugriff, NAS aber nicht erreichbar). Als es heute früh einmal kurz wieder funktioniert hat, war die Bootzeit auch recht kurz, vermutlich so 1-2min.
 

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Ich hab noch Infos zum Zustand der Platten:

Die neue gekaufte HDD hab ich auf meiner Linux Box neu formatiert (bei der fehlgeschlagenen Neuinitialisierung des NAS mit nur dieser Platte wurden die entsprechenden Partitionen angelegt). So kann ich hoffentlich nochmal frisch starten.

Die drei verbleibenden gesunden Platten habe ich auch an die Linux box gehaengt. Es sind 3 Partitionen, Typ Linux RAID: sdc1 cirka 2 GB, sdc2 cirka 2GB, sdc3 der Rest (cirka 2 TB).

Ich kenn mich mit Software RAID kaum aus, aber hab versucht, etwas zu testen. Das RAID von sdc3 wird automatisch "assembled", aber ist natuerlich unvollstaendig. Mit RAID 5 braeuchte ich ja mindestens 3 von 4 Platten gleichzeitig (ich hab aber die Platten nacheinander angeschlossen).

Code:
 $ sudo mdadm --detail /dev/md127
/dev/md127:
           Version : 1.1
        Raid Level : raid0
     Total Devices : 1
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 1

              Name : DSDemmel:2
              UUID : cf1415b1:25c71f34:e63b3ab0:fc50ae2e
            Events : 5131324

    Number   Major   Minor   RaidDevice

       -       8       35        -        /dev/sdc3

Bei den anderen beiden Partitionen scheint kein Superblock gefunden zu werden.

Code:
$ sudo mdadm --assemble --readonly /dev/md0 /dev/sdc1
mdadm: no recogniseable superblock on /dev/sdc1
mdadm: /dev/sdc1 has no superblock - assembly aborted
$ sudo mdadm --assemble --readonly /dev/md0 /dev/sdc2
mdadm: no recogniseable superblock on /dev/sdc2
mdadm: /dev/sdc2 has no superblock - assembly aborted

Das ist so bei allen drei gesunden Platten. Die ersten beiden Partitionen sind wohl die Systempartitionen der DiskStation? Das koennte erklaeren, warum von diesen Platten nicht gebootet werden kann. Aber komisch ist dann immer noch, warum es heute morgen ging. Wobei da ja die Disk Station auch schon angezeigt hatte, dass die Systempartition von Disk 3 und 4 kaputt ist. Disk 1 ging aber noch. (Disk 2 ist die defekte.)

Oder muesste ich die Systempartition irgendwie anders versuchen zu "assemblen", um zu testen, ob sie prinzipiell mountbar sind? Kann man nach dem Superblock scannen oder den irgendwie reparieren?

Wenn die Systempartitionen wirklich hinueber sind, muesste doch eigentlich funktionieren, dass NAS mit der neuen Platte neu zu initialisieren, dann alle Updates installieren, dann die 3 gesunden Platten rein und damit das Volume reparieren. Ich probier das morgen nochmal (mit der frischer Batterie).
 

Georgius

Benutzer
Mitglied seit
10. Apr 2021
Beiträge
231
Punkte für Reaktionen
10
Punkte
18
Ich meinte einschalten und warten. Wohl mit Pipsen usw.

Aber auch das vom Netzt trennen könnte länger helfen. Hatte mal das erst wirklich langes trennen ( größer 10 Minuten) was brachte. War kein Nas
 

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Ich habs im Pieps / organge-blinkende-Status-LED Zustand knapp 2h stehen lassen. Und auch mal über nach vom Netz getrennt. Kein Veränderung.

Nach Löschen der neuen Platte habe ich das NAS nochmal neu initialisiert mit nur dieser Platte. Ohne Platten oder mit leerer Platte startet es immer nochmal und wird auch vom Synology Assistant gefunden. Nach dem Aufspielen des Images (DSM_DS410j_5967.pat) startet das NAS neu. Es scheint dann normal zu booten (alle LEDs grün), aber ist nicht mehr erreichbar (hab auch >1h gewartet)...

Vielleicht geht irgendwas mit der IP Konfiguration schief? Ich habe beim Initialisieren sowohl dynamisch also auch statisch IP probiert. Gleiches Ergebnis. Das NAS hängt an einer Fritzbox im 192.168.178.0 Netz.
 

Georgius

Benutzer
Mitglied seit
10. Apr 2021
Beiträge
231
Punkte für Reaktionen
10
Punkte
18
Hat das Nas mehr als einen Lananschluß? Dann mal wechseln.

Zeigt die Fritzbox das Nas?
 

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
337
Punkte
123
Hattest du die Platten auch mal getestet, bzw. dir in deinem Linux mal die S.M.A.R.T-Werte angesehn?

Es kann natürlich sein, dass eine/mehere der anderen Platten auch schon einen weg hatten und sie den Neustart ebenfalls nicht überlebt hatten.


Hattest du regelmäßig die HDD-Tests laufen lassen?
S.M.A.R.T-Checks und Tests des Volumes

Sonst fallen defekte Sektoren erst auf, wenn zufällig drauf zugegriffen wird.
Somit können auch auf den anderen Platten Fehler vorhanden sein, die nur noch nicht entdeckt wurden, aber spätestens beim RAID-Sync raucht es dann ab, weil die Daten dieser Sektoren nicht wiederhergestellt werden können, weil dir ja bereits eine Platte fehlt (zusammen fehlen dann an der Stelle aber 2 Platten und somit peng)

Zeigt die Fritzbox das Nas?
sieht so aus, weil "Das NAS taucht im Netzwerk mit dem richtigen Hostnamen auf"

Also wenn das "dein" gewählter Name ist, dann sieht es so aus, als wenn das Linux (unterm DSM) zumindestens teilweise von den Patten gebootet wurde, weil der Name ja auf der Platte gespeichert ist. (DSM liegt als RAID 1 auf Allen internen Platten)


Der Versuch mit einzelnen Platten zu booten,
sowas macht man NIEMALS

jetzt hast du dir das RAID komplett zerlegt, weil ihm weitere Platten fehlten und bei mehr als "einer" fehlenden Platten, war's das mit dem RAID 5 und es deaktiviert sich.

Was geht: NAS aus, alle Platten raus und schauen, ob das NAS nun startet
(die neue Platte zum Start kann auch eingesetzt werden ... da ist nichts drauf, also kann nichts kaputt gehn, an Daten)




Nunja, wenn du ein Backup hast, kannst du immernoch alles platt machen, DSM neu installieren und alles neu über's Backup zurückspielen.
 
Zuletzt bearbeitet:

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Danke für die weiteren Hinweise und Tipps!
Hat das Nas mehr als einen Lananschluß? Dann mal wechseln.
Nein, das NAS hat nur 1x LAN.
sieht so aus, weil "Das NAS taucht im Netzwerk mit dem richtigen Hostnamen auf"
Genau, in Piep-Zustand mit den alten Platten taucht sie mit dem alten Namen auf. Oben sieht man aber auch beim Einzeltest der Platten unter Linux dass das RAID 5 den Namen der DS hat: "DSDemmel". Es wäre also prinzipiell auch denkbar, dass das NAS den Hostnamen daher nimmt, selbst wenn es nicht von den Systempartitionen booten kann (reine Spekulation).

Jetzt mit der Neuinstallation auf der einen neuen Platte taucht sie nach dem Neustart komischerweise nicht mit dem vergebenen Namen auf, sondern mit "DiskStation". Aber ich müsste hier nochmal prüfen, ob es wirklich so auftaucht, oder ob sie die Fritzbox den Hostnamen von dem Boot mit leerer Platte noch irgendwie gemerkt hat.

Hattest du die Platten auch mal getestet, bzw. dir in deinem Linux mal die S.M.A.R.T-Werte angesehn?

Es kann natürlich sein, dass eine/mehere der anderen Platten auch schon einen weg hatten und sie den Neustart ebenfalls nicht überlebt hatten.


Hattest du regelmäßig die HDD-Tests laufen lassen?
S.M.A.R.T-Checks und Tests des Volumes
Ja, beim Einzeltest der Platten unter Linux hab ich auch SMART Werte gecheckt. Alles ok bei den 3 Platten. Jeweils keine defekten Sektoren. Bei der defekten Platte ist der SMART Status auch noch "grün", aber eben >200 defekte Sektoren. Ich bin mir ziemlich sicher, dass ich einen regelmäßigen SMART Test geschedult hatte auf dem NAS.

sowas macht man NIEMALS

jetzt hast du dir das RAID komplett zerlegt, weil ihm weitere Platten fehlten und bei mehr als "einer" fehlenden Platten, war's das mit dem RAID 5 und es deaktiviert sich.

Hm... ich hatte das an anderer Stelle wo gelesen. Rationale: wenn auf einer der Platten das RAID 1 der Systempartitionen noch in Ordnung ist, kann man davon auch mit nur 1 Platte starten, dann die anderen einlegen. Aber es war vielleicht ein bisschen vorschnell / unüberlegt.

Das RAID 5 sollte sich aber ja trotzdem wieder aktivieren lassen, wenn die drei Platten ansonsten in Ordnung sind, oder nicht? Nur vielleicht nicht ohne manuelles Eingreifen?

Was geht: NAS aus, alle Platten raus und schauen, ob das NAS nun startet
(die neue Platte zum Start kann auch eingesetzt werden ... da ist nichts drauf, also kann nichts kaputt gehn, an Daten)

Nunja, wenn du ein Backup hast, kannst du immernoch alles platt machen, DSM neu installieren und alles neu über's Backup zurückspielen.
Ja, das habe ich versucht. Klappt zunächst auch, aber wie in meinem letzten Beitrag beschrieben, ist das NAS nach dem Neustart während der Initialisierung dann nicht mehr erreichbar, auch wenn es scheinbar problemlos bootet (alle LEDs grün).
 

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
337
Punkte
123
Es gibt noch den Reset:
Hinten, bis zum ersten Piep, wobei im DSM das LAN, Firewall, "admin"-Account usw. zurückgesetzt werden, falls es Probleme beim Zugriff gibt.

Nja, falls SSH aktiv ist, dann könnte man auch da mal schauen.
Und im Notfall gibt es noch einen versteckten Console-Port (Seriell) an der DS, wo man sich mit einem Terminal verbinden und dem Booten zusehn kann.
 

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Und im Notfall gibt es noch einen versteckten Console-Port (Seriell) an der DS, wo man sich mit einem Terminal verbinden und dem Booten zusehn kann.
Das wäre das einzige, was mir jetzt noch einfällt. Hättest du hierzu eine Link zu einer Anleitung? (Ich müsste mir wohl einen USB zu RS232 Adapter besorgen und passende Kabel / Konnektoren / Probes um diesen mit den richtigen Pins auf dem DS Board zu verbinden. Ich bin hier nicht so gut ausgerüstet.)

Vergessen wir mal kurz die alten Platten und die Wiederherstellung der Daten. Ich habe hier noch die Hoffnung, dass ich das RAID5 auf einer funktionsfähigen DS reparieren kann. Ansonsten hab ich das Backup noch. Aber:

Ich hab jetzt nochmal mehrfach versucht das NAS mit nur der einen neuen Platte und dem DSM image von der Synology Website (DSM_DS410j_5967.pat) zu initialisieren, in verschiedenen Konfigurationen:
  • mit LAN Kabel direkt zum Rechner (ohne Fritzbox)
  • MacBook und Linux Desktop
  • mit und ohne DHCP
  • mit zwei verschiedenen LAN Kabeln
Die BIOS Batterie hatte ich übrigens zwischenzeitlich auch mal gewechselt.

Es stellt sich immer folgendes Verhalten ein:

1. Beim Neustart ohne Festplatte (oder mit leerer Platte oder nach Voll-Reset) bootet das NAS immer schnell und ist zuverlässig im Netz erreichbar (z.B. Synology Assistant). Es nimmt eine DHCP Adresse an und kann gepingt werden. Oder ohne DHCP vergibt es selbst eine Adresse und wird damit auch vom Assistant gefunden.
Screenshot 2022-06-05 at 15.11.15.png

2. Die Wiederherstellung mit dem Image kann problemlos gestartet werden. Nach dem Punkt "4. Installing DSM" startet das NAS neu, scheint nach einer Weile richtig zu gebootet zu haben (Grüne Status LED, grüne LAN LED), ist aber ab dem Zeitpunkt nicht mehr erreichbar.
Screenshot 2022-06-05 at 15.17.51.png
Warten bringt nichts. Restart (über Power Button) bringt nicht. Reset Button bringt nichts, auch nicht nach erneutem Neustart. LAN Kabel trennen und neu verbinden bringt nichts.

Mit nicht erreichbar meine ich, dass das Device im Netzwerk gar nicht auftaucht. Es scheint keine IP Adresse zu haben und ist daher auch über keinen Dienst erreichbar (ping, http(s), ssh, telnet, Synology Assistant, ...).

Mit arp taucht das Device manchmal als "incomplete" auf (eno1 ist das ethernet device an dem das NAS hängt):
$ arp -a
NPI14FD1D.fritz.box (192.168.178.34) at 40:b8:9a:90:89:a9 [ether] on wls6
? (192.168.11.102) at <incomplete> on eno1
fritz.box (192.168.178.1) at c8:0e:14:4e:29:65 [ether] on wls6
Wobei ich mir nicht sicher bin, ob das wirklich daran liegt, dass mit dem NAS kommuniziert wird, oder daran, dass irgendein Dienst auf dem Rechner versucht die 192.168.11.102 zu finden (das war die richtige IP Adresse während der Installation vor dem Neustart).

Ich verstehe wirklich nicht, was hier passiert, aber es scheint mir als ob mit der LAN Verbindung irgendwie schon auf dem Link-Layer etwas nicht stimmt.

Wenn ich mit dem Reset Button einen Voll-Reset mache (4 Sekunden gedrückt halten, und nach dem Piepston loslassen und gleich nochmal gedrückt halten bis es 3x piepst.), komme ich wieder in Zustand 1. oben und kann das DSM neu installieren.
 

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Bei manchen Testläufen > 1h. Ich kann es heute aber mal über Nacht so stehen lassen. Ist vielleicht eine gute Idee.

Von außen ist schon nach ein paar Minuten ist keinerlei Aktivität erkennbar (Festplattengeräusche, etc). Das NAS scheint vor sich hin zu idlen. Nur vereinzelt blinken LAN und HDD LED mal kurz. Aber vielleicht trügt der Schein...
 
Zuletzt bearbeitet von einem Moderator:

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.804
Punkte für Reaktionen
3.761
Punkte
468
169.irgendwas klingt so, als würde die DS keine IP per DHCP bekommen. Was sagt denn der Router dazu?
 

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Genau, der Screenshot kommt von einem Versuch ohne DHCP. Die Installation kann aber problemlos gestartet werden mit der selbst zugewiesenen IP.

Wenn ich DHCP aktiviere (am Linux Rechner mit dhcpd bei Direktverbindung oder über den Router), dann bekommt das NAS in "uninitialisiert" Zustand auch problemlos eine IP zugewiesen und kann darüber gepingt werden.

Bei der Installation kann man die IP Konfiguration wählen. Dort habe ich auch schon sowohl DHCP also auch Manuelle IP Konfiguration gewählt. Immer das gleiche in der Folge. Installation kommt bis 4. und nach Neustart ist nix mehr...
 
Zuletzt bearbeitet von einem Moderator:

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Nachtrag: Neuer Versuch mit Direktverbindung zu Linux PC mit laufendem dhcpd.

Ich hab mal in die Logs geschaut. Wenn die DS nach einem Voll-Reset startet schein alles ganz normal:

Code:
Jun  5 22:04:01 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e via eno1
Jun  5 22:04:02 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:05:42 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:05:43 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:05:43 john dhcpd[4432]: DHCPREQUEST for 192.168.11.102 (192.168.11.2) from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:05:43 john dhcpd[4432]: DHCPACK on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:10:43 john dhcpd[4432]: DHCPREQUEST for 192.168.11.102 from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:10:43 john dhcpd[4432]: DHCPACK on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:15:44 john dhcpd[4432]: DHCPREQUEST for 192.168.11.102 from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:15:44 john dhcpd[4432]: DHCPACK on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1

Gegen 22:16 war dann der Neustart während der Installation über den Synology Assistant.

Nach cirka 5 Minuten (das Power LED hat noch geblinkt) war etwas Aktivität, aber nur DHCPDISCOVER und kein DHCPREQUEST, d.h. es wurde keine IP vergeben:

Code:
Jun  5 22:21:20 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:21 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:23 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:23 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:25 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:25 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:27 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:27 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:30 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:30 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:32 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:32 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:33 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:33 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:35 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:35 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:37 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:37 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:39 john dhcpd[4432]: DHCPDISCOVER from 00:11:32:08:05:9e (DiskStation) via eno1
Jun  5 22:21:39 john dhcpd[4432]: DHCPOFFER on 192.168.11.102 to 00:11:32:08:05:9e (DiskStation) via eno1

Nach weiteren 5 Minuten hat das NAS einmal kurz gepiept und war dann (anscheinend) fertig gebootet (alle LED grün, Power LED nicht mehr blinkend). Ein paar weitere Minuten war HDD Aktivität. Dann nichts mehr. In den DHCP logs findet sich seitdem nichts. Zustand wie immer in dieser Phase (NAS nirgends erreichbar).

Naja, ich lasse es mal bis morgen früh so laufen.
 
Zuletzt bearbeitet von einem Moderator:

NikolausDemmel

Benutzer
Mitglied seit
29. Mai 2022
Beiträge
18
Punkte für Reaktionen
2
Punkte
3
Vielen Dank für die Links!
Nachdem ich keine IP Verbindung bekomme scheidet das leider aus.

Aber bei dir ... joar
Ich hab den JP1 header gefunden. Ist ja ganz gut erreichbar bei geöffneter DS.

Für die Verbindung hab ich mir einen USB zu TTL RS232 Adapter bestellt, dann schauen wir mal :).
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat