Versioniertes Backup zwischen zwei lokal verbundenen DS aber schneller als Hyper Backup? Gibt es das?

PlexUser

Benutzer
Mitglied seit
14. Jan 2021
Beiträge
39
Punkte für Reaktionen
3
Punkte
8
Eben frisch getestet: anders als beim Erstellen des Backups, läuft bei der Wiederherstellung der Daten aus dem Backup auf beiden NAS jeweils nur ein Thread. Auf dem Backup-NAS sind es zwar ansich 2 Threads, es ist aber nur einer der beiden aktiv. Folglich wird durchschnittlich nur unter 50MB/s erreicht und die CPU-Auslastung liegt nur bei 20% auf dem Backup-NAS, bzw. 5% auf dem Produktiv-NAS.
wiederherstellung.JPG
wiederherstellung2.JPG

Ist das bei euch auch so oder tritt bei mir aus irgendwelchen Gründen ein Bug auf?
Ansich wäre ja zu erwarten, dass man sowohl Erstellung des Backups als auch die Wiederherstellung der Daten in parallelisierter Form implementiert und nicht nur eines von beidem...
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
docker exec -it containername /bin/sh

und du bist auf der Kommando Zeile des Containers und kannst untersuchen wie auf jeder Linux Maschine. Aber zugegeben. Klick, Klick,Next,Finish ist das nicht.
 
  • Haha
Reaktionen: blurrrr

NSFH

Benutzer
Sehr erfahren
Mitglied seit
09. Nov 2016
Beiträge
4.093
Punkte für Reaktionen
570
Punkte
194
Tja, wenn du das sagst, dann scheine ich keine Ahnung von HB zu haben. Damit kann ich gut leben.
Zu ISCSI in Verbindung mit der Syno gibt es gerade einen netten Faden wo die Problematiken ganz gut beschrieben sind.
Und du wirst doch nicht ernsthaft Serverhardware mit SAN Controllern mit der ISCSI Lösung der Syno vergleichen wollen?
Es gibt auch Kühe die Weitsprung machen.
Und das "Krücke" bezieht sich auf ISCSI sowie Docker (die Krücke etwas auf der Syno zum Laufen zu bringen was nicht für die Syno taugt), das hat Null mit Hyperbackup zu tun. Das läuft überall zuverlässig und zufriedenstellend stabil.
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
ok Du hast den längeren. Kann ich sonst noch was für Dein Ego tun?
 
  • Haha
Reaktionen: NSFH

OneCent

Benutzer
Mitglied seit
09. Apr 2011
Beiträge
13
Punkte für Reaktionen
0
Punkte
1
In ein paar Tagen kann ich was dazu schreiben.. wenn meine beiden 1621+ (Daten Raid 6 und Backup SHR) komplett installiert sind und die Daten von den Drobos dann endlich kopiert sind, dauert ja ewig da sie nur mit einer 1GBit Leitung über einen alten MacMini angeschlossen sind.
Allerdings bin ich noch ein wenig irritiert von den verschiedenen Backuplösungen und den Snapshots. So ganz kapiert habe ich das ganze nicht.
 

TB-UB

Benutzer
Mitglied seit
21. Mrz 2017
Beiträge
53
Punkte für Reaktionen
7
Punkte
8
Lass es uns wissen, wenn du es weißt! Ich versuche das seit 3 Jahren (immer mal wieder) uns stosse immer an Grenzen. Aktuell versuche ich das Defrag-Problem (Aufbrechen von Links) zu lösen, indem ich meine Produktivordner auf ein Volume verschiebe, wo ich ein Defrag machen kann.... Da fällt man schnell in die Falle, dass beim Ordnerverschieben die ganzen snapshots dieses Ordners verloren gehen. Ok. die wären für ein Defrag eh hinderlich...

Hyperbackup habe ich nur einmal angeschaut, nachdem TimeBackup entfernt wurde. Das ging damals nur datenbankbasiert und ich wollte und will nur filebasierte Lösungen.

Snapshots sind eigentlich eine schöne Sache. Angeblich kann man da 64k davon auf seine DS haben. Damit habe ich so eine Art Versionierung aufgebaut. Die kann man auch schön sichtbar machen. Man muss halt damit rechnen, dass Dateien die häufig geänder werden dann irgendwann mal aus zig Stücken zusammengesetzt werden müssen. Ein Defrag hat aber wieder andere "negative" Folgen.

Snapshot-Replication glaube ich, macht im Quellordner einen snapshot und kopiert/rsync-ed den auf den Zielordner und macht dort auch nen snapshot.
Allerdings muss das ganze neu gestartet werden, wenn da mal der Wurm drinnen ist. Das bedeutet dann, dass die ganzen alten snapshots im Ziel weg sind. Die kannst scheinbar nur retten, wenn das alte Ziel als alter zweiter Ordner erhalten bleibt, was aber dann eben auch Platz braucht. Alte snapshots der Quelle werden erst gar nicht übertagen.
Zwar kann man angeben, dass "lokale" snapshots auch repliziert werden sollen, aber das geht nur für zukünftige snapshots. Ich vermute mal, dass die das in eine Datenbank schreiben, um die abzuarbeiten wenns mal soweit ist. Und das bekommen die im Fehlerfall nicht so einfach mit einem bestehenden Zielordner synchronisiert, also wird das vermutlich erst gar nicht angeboten.
Für einmalige Backups macht die Replication aber einen guten job, etwas langsam zwar, aber danach hat man eine 1:1 Kopie eines Ordners, den man auch irgendwie als neue Quelle bereitstellen können soll...

Schade, dass es keine Stelle gibt, wo die Pros/Cons und Folgen der einzelnen Methoden kompakt aufgelistet sind.
 
  • Like
Reaktionen: OneCent und Simon88


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat