Hyper Backup Hyper Backup unerträglich langsam

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.835
Punkte für Reaktionen
2.272
Punkte
829
@whitbread: +1

@ArthurConan: Die hohen Werten zu Beginn dürften Caching-Effekte sein. Der tatsächliche Durchsatz wird dem Wert entsprechen, auf den er sich am Ende eingependelt hat.
 

KriKrack

Benutzer
Mitglied seit
08. Nov 2012
Beiträge
28
Punkte für Reaktionen
1
Punkte
3
Hallo,
derzeit schlage ich mich mit demselben Problem herum:
DS#1 = DS 415+ mit DSM 6.1, 4 x WD Red 4,0 TB, RAID5
DS#2 = DS 413 mit DSM 6.1, 4 x WD Red 3,0 TB, SHR

Ich will DS#2 komplett sichern ca. 5 TByte Daten. Drei Szenarien habe ich bisher angestartet und mehrere Stunden laufen lassen, um den Durchsatz zu messen. Alles ohne Krypto oder Kompression.

Sicherungsaufgabe 1:
DS#2 HyperBackup -> Remote Synology NAS (DS#1 HyperVault)
Durchsatz: 14,0 MByte/sec, voraussichtliche Dauer: 99,2 h = 4,1 Tage

Sicherungsaufgabe 2:
DS#2 HyperBackup -> lokaler freigegebener Ordner und externer Speicher (eSata)
Durchsatz: 12,9 MByte/sec, voraussichtliche Dauer: 107,7 h = 4,5 Tage

Sicherungsaufgabe 3:
DS#2 HyperBackup -> lokale Datenkopie (eSata)
Durchsatz: 30,9 MByte/sec, voraussichtliche Dauer: 44,9 h = 1,9 Tage

Hyperback_3ways.jpg

Das Legacy-Modell auf lokalen Speicher (eSata) gewinnt eindeutig. Wobei ich 30,9 MByte/sec nicht gerade atemberaubend finde.

Sieht hier jemand noch irgendeine beschleunigende Maßnahme auf Basis von HyperBackup?

Hat jemand Erfahrung mit Ultimate Backup und kann etwas zu dem damit erzielbaren Durchsatz sagen?

Gruß
KriKrack
 
Zuletzt bearbeitet:

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78

Tatsuki

Benutzer
Mitglied seit
03. Dez 2011
Beiträge
55
Punkte für Reaktionen
2
Punkte
8
Da dies ja der Sammelthread geworden ist im Bezug auf Geschwindigkeit bei Hyper Backup, will ich nun auch mal meine Erfahrungen posten.

Meine DS1813+ sichert gerade ein 27TB Backup auf eine weitere 1813+.
Die ersten 3TB liefen wie früher beim Kopieren auf meinen alten Windowsserver mit ca 80-100MB/sek. Hier hat dann wie immer das Netzwerk/die Ziel HDD angefangen zu drosseln.
Leider wurde nach 3TB die Sache immer langsamer!
Nach 3 Tagen sind nun 11,25TB kopiert und die Geschwindigkeit ist auf katastrophale 15-30MB/sek zusammengebrochen.

Unterm Strich finde ich die App ja richtig Klasse aber die Performance ist unterirdisch.
 

petrie

Benutzer
Mitglied seit
26. Okt 2014
Beiträge
79
Punkte für Reaktionen
0
Punkte
6
Das geht bei euch ja noch richtig schnell, ich komme auf:

- 3-4Mb/sec
- externe USB 3.0 Platte
- wobei die CPU Auslastung nur ~ 15% ist
- Speicher Auslastung 81%
- verwende DS214

das kann doch nicht sein, oder?

Vielleicht mache ich auch was falsch.

Gruß
petrie
 

Arpke

Benutzer
Mitglied seit
01. Aug 2014
Beiträge
70
Punkte für Reaktionen
4
Punkte
8
Hallo,

ich habe mir eine Speicherungs- und Sicherungskonzept überlegt, welches mehrere Rechner einbindet, 2 DiskStations und eine Sicherung auf externer USB/eSATA-Platte.

Insgesamt werden von 4 PCs Dateien unterschiedlicher Ordner per Cloud Station Drive in eine DiskStation DS114 mit Cloud Station Server "synchronisiert".

Diese Ordner der DiskStation DS114 werden mit einer zweiten DiskStation DS115 per Cloud Station Share Sync "synchronisiert". Im Prinzip ist das Raid 1 aber an getrennten Orten im LAN.

Zusätzlich werden die Ordner der DS114 mit Hyper Backup jeden Tage nachts in einem Zeitfenster von einer Stunde in einer USB 2.0 Platte als externe Platte an DS 114 gesichert. Die USB-Platte ist nur zur Sicherung an und wird danach dismounted und dann vom Strom bis zur nächsten Sicherung getrennt.

Insgesamt habe ich knapp 200 GB in mehreren Tranchen so in DS114, DS115 und der Sicherungsplatte "verteilt".

Werden große Ordner zum ersten Mal auf der USB-Platte gesichert, so habe ich dafür einige Stunden eingeplant. Hat alles gut funktioniert.

ABER:
Gestern abend um 21 Uhr habe ich einige Gigabyte per Hyper Backup sichern wollen. Es hat insgesamt mehr als 15 Stunden gedauert - bis kurz vor 13 Uhr.
Nachdem ich heute morgen diesen Thread gelesen habe, war ich mir nicht mehr sicher, ob der Job überhaupt zu einem Ende kommen würde.
CPU-Belastung fast ständig 100% - Speicherbelegung 70-80%.

Ich habe dann festgestellt:
- Synology Antivirus lief ständig und erzeugte > 70% CPU-Last
- Per Cloud Station Drive wurden parallel 16 GB Daten in die DS114 geladen.
- Ein Stromausfall gegen 24 h für 1/4 Stunde kam auch noch hinzu - die DS114 ist automatisch wieder hochgefahren und Hyper Backup lief wieder (weiter ??? oder neu ???)
- Um 6 Uhr ist per Voreinstellung automatisch der Speicher Analysator gestartet. Ich habe ihn manuell um 9 Uhr abgeschaltet.
- Komprimierung und Verschlüsselung waren nicht an.

Als die Sicherung durch war habe ich Synology Antivirus deaktiviert.

Eine weitere Sicherung aus DS 114 auf die USB-Platte wurde angestoßen - insgesamt 16 GB.
Die ersten 13 GB liefen in weniger als einer 3/4 Stunde durch.
Dann ging fast gar nichts mehr.
Die Analyse ergab, dass ein weiterer Nutzer angefangen hatte, große Mengen Fotos in die FotoStation zu laden, mit der Folge, dass die DS-114 mit dem Konvertieren der Fotos begann.
Ich habe das dann laufen lassen und Hyper Backup kam dann doch recht schnell zum Ende.
Nach insgesamt fast genau 1 3/4 Stunden waren die 16 GB komplett gesichert. Die letzten 3 GB haben alleine 1 Stunde benötigt.

Fazit:
M. E. muss man wissen, was in der DS läuft. Bei großen (Komplett)-Sicherungen, muss man sicherstellen, dass die Sicherung läuft und nicht noch vieles anderes.

Ich werde das weiterverfolgen und in den nächsten Wochen die Sicherungsdatenmenge weiter sukzessive erhöhen.
Die Hinweise in diesem Thread waren hilfreich.
Danke an die Community.

Norbert
 

DavidSt

Benutzer
Mitglied seit
13. Nov 2017
Beiträge
1
Punkte für Reaktionen
0
Punkte
1
Mal anders herum probiert ...

Nachdem Hyperbackup für meinen Backup-Job (2.2TB, Sicherung auf einen Win2008R2 Server mit Rsync - Remote-Datenkopie) nach etwa 24 Stunden erst 60% Fertigstellung anzeigt und die Transfergeschwindigkeit um die 20MB/sec herumrödelt, reicht es mir mit dieser Methode.

Jetzt habe ich testweise auf dem Zielrechner Cobian-Backup installiert, eine Inkrementelle Sicherung der Synology-Freigabe mit Ziel auf dem Windows-Server erstellt und den Job gestartet. Nach ca. 15 Min. sind jetzt knapp 75GB durch, er schaufelt je nach anderweitiger Belastung der NAS zwischen 70 und 110MB/sec auf den Server.

Cobian könnte auch Versionierung, Differentiell, ... - ist eher ein File-Kopierer, wenn man es genau nimmt.

Lg
David
 

Linuxtal

Benutzer
Mitglied seit
12. Okt 2012
Beiträge
7
Punkte für Reaktionen
0
Punkte
0
Insgesamt habe ich knapp 200 GB in mehreren Tranchen so in DS114, DS115 und der Sicherungsplatte "verteilt".

Hallo,

200GB das ist doch Pillepalle, wenn du 10 TB sichern willst dauert das Tage. Auf meiner alten DS712 ging das alles viel schneller. Ich frage mich was das für eine Software ist wenn hier Geschwindigkeiten von 1990 erzeugt werden beim Backup. Keinen bei Synology scheint das zu Interessieren, Interessant das Verhalten der Firma wenn praktisch in allen verschiedensprachigen Foren das gleiche Problem besteht und es keine Lösung gibt.

Ein rsync über das Netzwerk von Linux aus ist da rasant zu nennen wenn ich das mit dem lokal angeschlossenen USB3 Device und HB vergleiche.

Verdrehte Welt.

m.f.g.
Carl-Heinz
 

whitbread

Benutzer
Mitglied seit
24. Jan 2012
Beiträge
1.294
Punkte für Reaktionen
54
Punkte
68
Solche Datenmengen gehören halt nicht in eine DB gesichert!

Die gute alte Datenkopie ist ja weiterhin im Angebot; wers noch schneller mag möge bitte mal bei Snapshot und Replikation nachschauen. Dort wäre auch eine Versionierung möglich. Diese Lücke schliesst bei der Datenkopie das Community Package Ultimate Backup.

Kurzum: Es ist für jeden was dabei. Warum HB aus der Marketingecke so gepusht wird kann ich mir auch nicht erklären...
 

Kurt-oe1kyw

Benutzer
Sehr erfahren
Mitglied seit
10. Mai 2015
Beiträge
9.139
Punkte für Reaktionen
1.799
Punkte
314
Warum HB aus der Marketingecke so gepusht wird kann ich mir auch nicht erklären...

Nun ich will es mal mit einem Erklärungsversuch wagen:
Es gibt/gab (zumindest als ich in die Synologywelt eingestiegen bin) Datensicherung und Replikation, das wurde später abgelöst vom derzeit aktuellen Hyperbackup - beides direkt aus der Produktschmiede vom Hersteller.
Nebenbei trafen sich interessierte User, Neulinge, Newcomer usw hier im Forum zum Meinungsaustausch und brachten alle zusammen Ihre Ideen ein was dem einen oder anderen zur Datensicherung fehlen würde und was ein "nice to have" wäre.
Das wiederum haben dann zwei engagierte Forenuser hier zum Anlass genommen und begonnen die Vorschläge, Wünsche und Ideen der User hier einfach umzusetzen und es besser und einfacher zu machen.
So entstand aus der Anfangs "einfachen" Datensicherung über die Monate/Jahre ein phantastischen Projekt welches sie Ultimate-Backup getauft haben :)

Warum hat es so eingeschlagen:
Weil die beiden einfach Userwünsche umgesetzt haben, ohne das sich irgendwelche ahnungslosen/verzweifelte/um jeden Preis nach oben kommen wollende Manager aus der mittleren und oberen Führungsebene mit ihren teils schwachsinnigen/irrationalen Ideen und Eigenbefindlichkeiten eingemischt haben :)
Die beiden konnten ohne, wie sage ich es vorsichtig - ohne "Systembedingte Schwierigkeiten eines Großkonzerns" einfach ihr Ding unter Berücksichtigung der Userwünsche/Ideen/Anregungen umsetzen.
Natürlich muss Synology HB pushen, ist ja fast peinlich für einen Großkonzern wenn da einfach zwei "dahergelaufen" kommen und ihnen erfolgreichen zeigen und Vorführen wie so was geht.
Das ist aber nur meine persönliche Meinung und Erklärungsversuch :)
 

whitbread

Benutzer
Mitglied seit
24. Jan 2012
Beiträge
1.294
Punkte für Reaktionen
54
Punkte
68
Naja, um mal die Historie kpl. zu machen: Früher gab es mal TimeBackup für versionierte Backups und natürlich das normale Backup (beides file-basiert). Das wurde dann mit HyperBackup abgelöst - jedenfalls wollte Synology das wohl so. Aber ein paar aufsässige Gallier konnten sich nicht damit anfreunden, in eine Datenbank zu speichern, auch wenn HB Versionierung anbietet. So entstand dann eine tolle Alternative mit UltimateBackup.

Nur zur Gesichtswahrung offensichtlichen Schrott zu pushen ist doch armselig. Der Cowboy erkennt, wenn sein Pferd am Ende ist, und erlöst es dann!
 

Linuxtal

Benutzer
Mitglied seit
12. Okt 2012
Beiträge
7
Punkte für Reaktionen
0
Punkte
0
Hallo,

Danke für das Script, nachdem ich es etwas modifiziert habe,
geht es jetzt jedenfalls mal besser als das HB.

m.f.g.
Carl-Heinz
 
Zuletzt bearbeitet:

Tommes

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
26. Okt 2009
Beiträge
9.738
Punkte für Reaktionen
1.646
Punkte
314
:eek:
 

Thonav

Benutzer
Sehr erfahren
Mitglied seit
16. Feb 2014
Beiträge
7.896
Punkte für Reaktionen
1.517
Punkte
274

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.835
Punkte für Reaktionen
2.272
Punkte
829
Die findest Du im Datensicherungsassistenten des Hyper Backup Pakets (siehe Screenshot).
 

frimp

Benutzer
Mitglied seit
03. Mrz 2011
Beiträge
225
Punkte für Reaktionen
37
Punkte
34
Hyper Backup wurde heute aus aktuellem Anlass wieder von der DS geworfen. Es ist einfach zu langsam - und das bei einer DS716+II mit Quadcore und RAM und haste nicht gesehen. Die CPUs langweilen sich, kaum Speicher belegt, sorry - das geht gar nicht.
 

_Joachim_

Benutzer
Mitglied seit
05. Jun 2016
Beiträge
62
Punkte für Reaktionen
0
Punkte
0
Hallo zusammen,

ich bin kein Synology- oder gar HyperBackup-Spezialist, aber ich möchte zum Thema ‚Backup-Dauer’ bzw. ‚Dauer einer Integritätsprüfung’ (Hyper-Backup) ein paar Hinweise geben.

Auch ich sichere meine Backups im NAS auf eine externe USB-3.0-Festplatte.
Kürzlich kaufte ich eine 4 TB WD-Elements... und staunte nicht schlecht, dass zu sichernde 2,4 TB auf der USB-Platte nach rund 18 Stunden erst zu 85% geschrieben waren.
Ein Blick auf die Schreibleistung der USB-Platte mittels Synologys „Ressourcen-Manager“ zeigte: USB-Festplatten-Auslastung ziemlich dauerhaft 100% bei einer dauerhaften Schreibleistung von eher knapp 10 MB/s. Das konnte nicht sein – und entsprach auch nicht bisheriger Erfahrungen!

Nach Austausch der Festplatte (gegen das gleiche Modell) liegt die USB-Festplatten-Auslastung nun eher um 90% bei einer Schreibleistung von um 80 MB/s und darüber.

Um Anhaltspunkte zu liefern...
DS716+, BTRFS (teilweise verschlüsselte und / oder komprimierte Daten) mit HyperBackup auf USB-3.0-Festplatte, NTFS (verschlüsselt und komprimiert); Erstsicherungen:

2,4 TB (~1.500 Dateien, ~45 Ordner, BTRFS) auf USB-3.0-Festplatte (~ 2,1 TB, NTFS): rund 9 Stunden.
Integritätsprüfung dieser Sicherung inkl. Prüfung der Widerherstellbarkeit: rund 9 Stunden, 45 Minuten.

730 GB (~91.000 Dateien, ~5.300 Ordner, BTRFS) auf USB-3.0-Festplatte (~ 660 GB, NTFS): rund 9 Stunden, 15 Minuten.
Integritätsprüfung dieser Sicherung inkl. Prüfung der Widerherstellbarkeit: knapp 10 Stunden.

Anbei zwei Screenshots der ‚Ressourcen-Monitor’-Ausgaben.

USB-3.0-HDD_Ok.jpg / USB-3.0-HDD_nicht_Ok.jpg
 

Ar-Al

Benutzer
Mitglied seit
10. Apr 2016
Beiträge
272
Punkte für Reaktionen
2
Punkte
18
Ich habe ja nur die DS216j und die sichert gerade mit Hyper Backup in eine DB auf die IronWolf 10TB in einem USB-Dock (inateck FD2002C).
Client-Verschlüsselung ist aktiviert und ich frage mich, ob es damit viel langsamer läuft.

Von 2,6 TB wurden bisher 1,34TB (1.011.194 Dateien) in 22 Stunden gesichert, was 69% sind.
Die CPU läuft mit 45°C, die beiden internen WD Red 4TB mit 33 und 37°C.
Die Temperatur der IronWolf im USB-Dock kann ich nur mit einem Infrarot-Thermometer messen 42,8°C außen.

2018-04-16-LUESV04-All-01-Übertragung.jpg

Zwischen 4:30 Uhr und 7:30 Uhr habe ich noch geschlafen. Was die DS da gemacht hat, weiß ich nicht.

Hier die CPU-Auslastung:

2018-04-16-LUESV04-All-01-CPU.jpg

Muss ich mir Sorgen machen?
 
Zuletzt bearbeitet:


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat