- Mitglied seit
- 10. Mrz 2012
- Beiträge
- 42
- Punkte für Reaktionen
- 4
- Punkte
- 8
Ich bin auf eine Unzulänglichkeit im Programm gestoßen, die ich hier schildere, damit andere User sich meinen Ärger ersparen können.
Ich habe sehr große (3 bis 5 TB) übergeordnete Ordner innerhalb eines Shares (gemeinsamer Ordner), die ich in viele kleinere untergeordnete Ordner unterteilt habe.
Das habe ich gemacht, damit ich Datensicherungsaufgaben zerlegen kann, weil mir sonst einzelne Sicherungen tagelang das System belasten. Insbesondere wenn sie komplett neu aufgesetzt werden müssen.
Ich kann auf meinem System leider nicht flüssig arbeiten, wenn eine Hyperbackup-Aufgabe läuft.
Ich habe zuerst die Unterordner 1 bis 10 in die Sicherung eingeschlossen, dann 11 bis 20, usw.. Letztlich waren alle Daten gesichert und auch, von mir nachgeprüft, im Sicherungsziel vorhanden.
Es gibt darüber hinaus keine einzelnen Daten außerhalb der Unterordner.
Dann habe ich im übergeordneten Ordner, der mit einem Minuszeichen versehen war, den Haken gesetzt, damit neue Unterordner automatisch in die Sicherung aufgenommen werden.
Und siehe da, beim Start der Sicherungsaufgabe wurden alle Daten komplett nochmal neu geschrieben. So als wären sie nicht im Sicherungsziel vorhanden.
Meine Nachfrage bei Synology hat ergeben, dass das bewusst so programmiert wurde. Das ist ärgerlich. Zumal Synology das bei der datenbankbasierten Sciherung besser gemacht hat.
Ich umgehe das Problem jetzt dadurch, dass ich, bei einer neuen Komplettsicherung, die Daten in der Quelle aus dem übergeordneten Ordner vorübergehend in andere Ordner verschiebe.
Ich kann dann den übergeordneten Ordner sofort komplett (also mit Haken) in die Sicherung aufnehmen und schiebe anschließend nach jedem Sicherungsdurchlauf die einzelnen Unterodner nach und nach wieder zurück.
Das ist umständlich, funktioniert aber.
Man könnte den Eindruck haben, dass Synology die filebasierte Sicherung (Datenspiegelung) absichtlich userunfreundlich gestaltet!
Ich kann die datenbankbasierte Sicherung von Hyperbackup nur für kleinere Datenbestände nutzen. Für große Bestände ist es einfach zu langsam.
Insbesondere auch die Wiederherstellung von Daten ist so extrem langsam, dass ich damit nicht arbeiten will. Ich würde die Wiederherstellung meiner Daten nach einem Totalausfall vermutlich nicht mehr erleben. ;-)
Bei meinen Mediendaten ist mir zudem der direkte Zugriff auf die lokalen Sicherungdaten wichtig.
Es wäre sicher gut, wenn alle User, die mit der filebasierten Sicherung arbeiten und auf Schwierigkeiten stoßen, sich damit immer wieder an den Support wenden, damit die Entwickler diese Funktion nicht links liegen lassen.
Oder wie schon mal geschehen, ganz aus Hyperbackup entfernen.
Ich habe sehr große (3 bis 5 TB) übergeordnete Ordner innerhalb eines Shares (gemeinsamer Ordner), die ich in viele kleinere untergeordnete Ordner unterteilt habe.
Das habe ich gemacht, damit ich Datensicherungsaufgaben zerlegen kann, weil mir sonst einzelne Sicherungen tagelang das System belasten. Insbesondere wenn sie komplett neu aufgesetzt werden müssen.
Ich kann auf meinem System leider nicht flüssig arbeiten, wenn eine Hyperbackup-Aufgabe läuft.
Ich habe zuerst die Unterordner 1 bis 10 in die Sicherung eingeschlossen, dann 11 bis 20, usw.. Letztlich waren alle Daten gesichert und auch, von mir nachgeprüft, im Sicherungsziel vorhanden.
Es gibt darüber hinaus keine einzelnen Daten außerhalb der Unterordner.
Dann habe ich im übergeordneten Ordner, der mit einem Minuszeichen versehen war, den Haken gesetzt, damit neue Unterordner automatisch in die Sicherung aufgenommen werden.
Und siehe da, beim Start der Sicherungsaufgabe wurden alle Daten komplett nochmal neu geschrieben. So als wären sie nicht im Sicherungsziel vorhanden.
Meine Nachfrage bei Synology hat ergeben, dass das bewusst so programmiert wurde. Das ist ärgerlich. Zumal Synology das bei der datenbankbasierten Sciherung besser gemacht hat.
Ich umgehe das Problem jetzt dadurch, dass ich, bei einer neuen Komplettsicherung, die Daten in der Quelle aus dem übergeordneten Ordner vorübergehend in andere Ordner verschiebe.
Ich kann dann den übergeordneten Ordner sofort komplett (also mit Haken) in die Sicherung aufnehmen und schiebe anschließend nach jedem Sicherungsdurchlauf die einzelnen Unterodner nach und nach wieder zurück.
Das ist umständlich, funktioniert aber.
Man könnte den Eindruck haben, dass Synology die filebasierte Sicherung (Datenspiegelung) absichtlich userunfreundlich gestaltet!
Ich kann die datenbankbasierte Sicherung von Hyperbackup nur für kleinere Datenbestände nutzen. Für große Bestände ist es einfach zu langsam.
Insbesondere auch die Wiederherstellung von Daten ist so extrem langsam, dass ich damit nicht arbeiten will. Ich würde die Wiederherstellung meiner Daten nach einem Totalausfall vermutlich nicht mehr erleben. ;-)
Bei meinen Mediendaten ist mir zudem der direkte Zugriff auf die lokalen Sicherungdaten wichtig.
Es wäre sicher gut, wenn alle User, die mit der filebasierten Sicherung arbeiten und auf Schwierigkeiten stoßen, sich damit immer wieder an den Support wenden, damit die Entwickler diese Funktion nicht links liegen lassen.
Oder wie schon mal geschehen, ganz aus Hyperbackup entfernen.