Räumliche Trennung beim Backup. Wie habt ihr das gelöst?

Status
Für weitere Antworten geschlossen.
Ich möchte noch hinzufügen das BTSync und m.M. alles was 2way ist natürlich kein Backup ersetzt! Datei auf der einen Seite weg (warum auch immer), Datei auch auf der anderen Seite weg - gewünschtes Verhalten :)

Ich mache den Sync um zuhause und im Büro mit den gleichen Daten arbeiten zu können, und im Fall des Falles (z.b. Diebstahl NAS im Büro) einfach die DS von zuhause ins Büro mitnehmen zu können - ohne Zeitverlust bzw. Arbeitsausfall.

Disconnects waren bisher zumindest bei mir mit BTSync kein Problem.

Ich überlege noch wie ich das Thema Backup abdecke: Zuerst dachte ich jeweils mit Hyperbackup lokal auf die gleiche DS. Sinn des Backups wäre dann nur an alte/fehlende Dateien ran zu kommen. Wenn die DS weg/kaputt ist habe ich ja immer die zweite. Wobei wenn dann der Sync versagt und ich es erst in Fall "Backup nötig" merke dann ist natürlich was weg.

Wahrscheinlich sollte ich im Büro noch einen zweiten Hyper Backup Job einrichten der in eine Clound bzw. zu einem dritten Ort sichert?
 
Ich kenne BTSync bisher nicht, aber die CloudStation wirkt dem durch Versionierung entgegen.

Für das Backup würde ich lieber eine externe Platte an der Quelle verwenden und die dann in der Firma lagern.
 
Ich habe mittlerweile eine 600km entfernte BackupDS und eine externe Backup Platte :)

@Eistee78 danke für die Infos zu BTSync, werde ich mir mal anschauen
 
Also ich habe eher den umgekehrten Fall erlebt. Nutze schon seit jeher Datenreplikation als Backup (also das gute alte filebasierte Backup ohne Versionierung).
Im Falle der Wiederherstellung hatte ich plötzlich den ganzen alten Datenmüll, den ich schon lange vorher gelöscht hatte, wieder auf der Platte, weil ich das Häckchen bei gelöschte Dateien behalten gesetzt hatte.

Ich denke daher, dass man beim Backup die beiden Szenarien disaster recovery (Brand, Diebstahl, Defekt) und Wiederherstellung versehentlich gelöschter Dateien trennen muss. Wie sich dass mit dem aktuell recht unübersichtlichen Konvolut an Möglichkeiten am besten lösen lässt, diskutieren wir ja gerade...
 
Sehe ich auch so, wobei es durchaus versionierte Datensicherungen gibt, die das Vermüllungsthema vermeiden. Die kombinieren den Schutz vor versehentlich gelöschten Daten mit identischen Replikationsständen.
 
Hallo!

Ich beabsichtige, demnächst ein zweites NAS-Gerät zu kaufen. Damit das erste (411slim; noch auf DSM 5.2, da DSM 6.0 mich abschreckt) auch noch sein Nutzen hat, gedenke ich, ihn als Backup-Server einzurichten. Aber wie kann man die Backup-Strategie entwickeln, wenn das Gerät in einem anderen Haus steht? VPN hat Synology ja nur als Server, nicht als Client.
Synchronisierung ist ja nicht wirklich meine Absicht, denn sie ist meiner Meinung nach kein Backup!

Oder wird das eine DS-Gerät automatisch auf einem anderen erkannt, wenn die beiden "miteinander" (wie auch immer?) verbunden sind und das eine sich als Backup-Platte anbietet?
 
Doch VPN-Client gibts auch. Allerdings würde ich immer auf die Site2Site Kopllung via Router setzen!
Ansonsten geht es aber auch gänzlich ohne - einfach den ssh Port für rsync auf einen hohen ungenutzten Port setzen und direkt mit verschlüsseltem Backup Nas2Nas arbeiten. Wenn es eh' nur um Backups geht würde mir das als Sicherheit reichen. Allerdings sitzt bei mir 'ne Firewall davor, die z.B. Port-Scans erkennt und blockt.
 
Hallo zusammen!

Ich bin seit längerem stiller Mitleser und habe schon viele hilfreiche Tipps gefunden. Nun gebe ich mal mein Sicherungskonzept zum Besten:

Mein Haupt-NAS (DS215j) in meiner Wohnung sichert per HyperBackup (sowohl versioniert, als auch dateibasiert) auf mein Backup-NAS (ebenso DS215j) das 120 km entfernt bei meinen Eltern steht. Dies geschieht über die beiden FritzBoxen an beiden Standorten die eine VPN-Verbindung aufbauen und permanent halten. Probleme hinsichtlich Zwangstrennung habe ich keine, da mein Telekom-VDSL-Anschluss mit IP-Telefonie dieser nicht mehr unterliegt. Auch der Kabelinternetanschluss bei meinen Eltern wird nicht zwangsgetrennt.

Problematisch war zu Beginn nur, dass die VPN-Verbindung alle paar Minuten bei hoher Upload-Auslastung zusammenbricht, aber auch prompt wieder aufgebaut wird. Beim HyperBackup führt das zwar nicht direkt zu einem kompletten Abbruch, aber die Datenübertragung wird trotzdem irgendwie gestört oder zumindest verlangsamt. Das Problem findet sich häufiger im Internet und ist unabhängig von den Übertragungsraten der Anschlüsse - eine Abhilfe scheint AVM nicht bieten zu wollen/können. Ich hab mir nun so beholfen, indem ich die betroffenen Ports der Diskstation in der Datenflusssteuerung auf 1024 KB/s begrenzt habe. Mit meinem 10048 kbit/s Brutto-Upstream-Sync der VDSL-Leitung klappt das recht gut, und nur alle paar Stunden kommt ein Fehler wenn ich zeitgleich das Internet nutze. Hier noch die beiden Logs, die die Fritzboxen werfen:
Quell-FritzBox
011.jpg
Ziel-FritzBox
022.jpg

Zusätzlich zum BackupNAS habe ich noch zwei ältere externe 640GB-Festplatten. Auf diese sichere ich jeweils auch relativ regelmäßig - die 1. wöchentlich, die 2. monatlich - per Hand die allerwichtigsten Daten (derzeit ca. 500 GB) per versionierten HyperBackup. Nach der Sicherung werden diese wieder in der Schublade, einer bei mir und die andere bei meinen Eltern, verstaut.
 

Anhänge

  • 01.jpg
    01.jpg
    20,3 KB · Aufrufe: 69
  • 02.jpg
    02.jpg
    20,8 KB · Aufrufe: 71
Ich habe aktuell zwei DSen und beide stehen räumlich getrennt, 500km weit auseinander.
Die zweite DS hat den Cloud Station Share Server aktiv und die Haupt-DS ist über Quickconnect und SSL mit der Zweit-DS verbunden. Alle Daten werden in Echtzeit von der Haupt-DS zur Zweit-DS übertragen. Also eine Spiegelung, jedoch nur in eine Richtung. Bislang funktioniert das mal, läuft aber noch nicht so extrem lange. Der Abgleich ob die Daten korrekt übertragen wurden, findet erst am Wochenende statt..
 
Hallo,

ich klinke mich hier mal ein, da ich zwei DS215 die räumlich voneinander getrennt stehen, sichern möchte. Ich habe mir mal Cloud Station Server und Sharesync angeschaut, das funktioniert soweit auch, nur habe ich das Problem, dass gelöschte Files und Ordner auf dem Cloud Station Server auch auf dem Client (2. DS215) gelöscht werden. Kann man das nicht irgendwo abstellen oder habe ich irgendwo einen Denkfehler?
Bisher ist die Konstellation so, dass der Cloud Station Server auf der 1. DS215 läuft, die ich sichern möchte. Auf der 2. DS215 läuft Sharesync und hier möchte ich natürlich die Ordner und Dateien behalten.
 
Du kannst die Richtung einstellen.. 2 Wege, nur Upload oder nur Download.. Daher kann man es eigentlich so konfigurieren, wie du es benötigst..

Bei mir hat sich nur letztens gezeigt, dass die beiden Verzeichnisse nicht identisch viele Dateien haben und auch dementsprechend unterschiedlich groß waren.. Das hat mich doch sehr verwundert
 
Du kannst die Richtung einstellen.. 2 Wege, nur Upload oder nur Download.. Daher kann man es eigentlich so konfigurieren, wie du es benötigst..
Dann müsste ich also auf der DS, die ich sichern möchte Sharesync laufen lassen und auf der Ziel DS den Server und die daten quasi hochschieben statt herunterladen?
 
was du willst ist also quasi CS Backup - das gibts aber nicht für Server…

Was spricht gegen Hyper Backup oder rsync?
 
Hallo bodensee,

ja es ist ein Deckfehler :) Sync ist nicht gleich Backup, bei Sync ist es Feature das eine Datei auch auf der anderen Seite verschwindet.

BTSync hat eine Option das die von der anderen Seite gelöschten Dateien 30 Tage in einem Archiv Ordner verbleiben. Ich habe diese jedoch aus. Ich mache für den "versehentlich löschen" Fall zwischen 8-22 Uhr mit Hyperbackup auf beiden DS lokale Backups, welche nicht gesynt werden! Die DS am wichtigen Standort und mit der besseren Anbindung macht jede Nacht noch ein Backup (HyperBackup) in die Clound.
 
Was spricht gegen Hyper Backup oder rsync?
Hyper Backup ist irre langsam wobei ich dazu sagen muss, dass die Internetverbindung knapp über DSL-light liegt. Derzeit liegen knapp 70GB zur Sicherung bereit und das geht über Stunden. Von daher dachte ich, es geht anders schneller.

rsync wäre auf der Console richtig? Ich wollte es eigentlich vermeiden etwas zu konfigurieren, das nicht über das GUI einstell- und händelbar ist.
 
Hallo Eistee
ja es ist ein Deckfehler :) Sync ist nicht gleich Backup, bei Sync ist es Feature das eine Datei auch auf der anderen Seite verschwindet.
Okay, ich bin jetzt von rsync ausgegangen, wie ich es von meiner Linux Umgebung her kenne. Da kann man Quell- und Zielverzeichniss vergleichen und im Quellverzeichnis gelöschte Files im Zielverzeichnis stehen lassen.
 
Meine lokalen Backups mit HyperBackup sind schnell genug, das erste remote Backup mit über 80gb halt halt so lange gedauert wie der Upload hlat dauert :) Das ist aber unabhängig vom Backup Programm.
 
Du kannst über HB ein "Rsync (Legacy)" Backup erstellen, das ist dann Rsync ohne Shell :) Da kannste dann auch den Haken "gelöschte Dateien im Backup lassen" aktivieren.
 
Du kannst über HB ein "Rsync (Legacy)" Backup erstellen, das ist dann Rsync ohne Shell :) Da kannste dann auch den Haken "gelöschte Dateien im Backup lassen" aktivieren.
HA! Genau das hatte ich gesucht. Bin gerade am Testen und es scheint so zu funktionieren wie ich es gerne hätte.

Vielen Dank!
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat