Hyper Backup Hyper Backup unerträglich langsam

jm3west

Benutzer
Mitglied seit
12. Nov 2016
Beiträge
34
Punkte für Reaktionen
0
Punkte
6
60 MB/s bei der Erstsicherung sind aller Ehren wert. Wie ist die CPU-Last auf der 416j während des Backups?

Nun, die CPU-Last pendelt von ca. 40% bis zu 80%.
Der RAM ist mit ca. 50% am werkeln.

Ich muss aber erwähnen dass ich alles was abzuschalten geht an der DS 416j abgeschaltet habe.

Habe auch nur Hyper Backup und -Vault installiert.
Ich backupe von der DS 916+ in zwei verschieden Freigaben.
Die Freigabe "ToGoogleDrive" wird dann, von der DS 416j, noch im Anschluss zu, wie der Name schon verrät verschlüsselt zu Google Drive hochgeladen.

MfG
jm3west
 

frankyst72

Benutzer
Mitglied seit
01. Jun 2015
Beiträge
1.959
Punkte für Reaktionen
8
Punkte
58
ich habe das Gefühl, dass bei HyperBackup die Hardwareausstattung (CPU, RAM, etc.) und die gewählten Parameter (Verschlüsselung, in Blocken, lokale Kopie oder versioniert, Übertragung verschlüsselt) extrem ins Gewicht fallen (auch wenn das vielleicht im Ressourcen-Monitor so nicht ganz zum Vorschein kommt).
Ist doch kaum einer da, der mit einer der neueren Intel-DSen. jammert.

Auch ich bin mit der Leistung von HyperBackup zufrieden.
 

Thonav

Benutzer
Sehr erfahren
Mitglied seit
16. Feb 2014
Beiträge
7.896
Punkte für Reaktionen
1.517
Punkte
274
Danke für den Hinweis den Speed mal zu checken, jm3west.

Habe zum Testen auch mal ein 23GB Verzeichnis mit Verschlüsselung von DS216+II auf DS1515+ erstellt. 6 min 23 sec. DSM 6.1 beta.
 

sprengbox

Benutzer
Mitglied seit
04. Dez 2015
Beiträge
198
Punkte für Reaktionen
0
Punkte
16
Zum Thema Hyper Backup Geschwindigkeit möchte ich hier folgendes fragen:

Bisher sicherte ich meine 215j per Hyperbackup/Lokale Datenkopie auf eine USB 3 Platte. Die durchschnittliche Geschwindigkeit betrug dabei
ca. 60-70 MB/s (Backupvolumen ca. 3 TB).

Nun kam heute die neue 216j, die nach Migration der 215er Platten die neue Hauptnas wurde. Die alte 215j als Backup-Nas mit Hyper BackupVault ausgestattet.

Das erste Initalbackup per Remote-Datenkopie über das GB-LAN läuft nun allerdings mit ca. 25 MB/s.

Ist der Geschwindigkeitseinbruch normal gegenüber USB oder hängt es am Hyper Backup oder gibt es da noch Stellschrauben?
Geschwindigkeitsbegrenzungen sind keine gesetzt, ebenso keine Verschlüsselung.
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.836
Punkte für Reaktionen
2.272
Punkte
829
Würde ich als normal einschätzen, Remote Backup ist langsamer. Wie ist die CPU Auslastung der 215j und 216j während des Backups?
 

sprengbox

Benutzer
Mitglied seit
04. Dez 2015
Beiträge
198
Punkte für Reaktionen
0
Punkte
16
Wie ist die CPU Auslastung der 215j und 216j während des Backups?

Quelle (216): CPU 30% / RAM 35%
Ziel (215): CPU 60% / RAM 25%

Wobei die 216j eine etwas schnellere CPU hat und ein paar wenige Prozesse (Pakete) zusätzlich dort laufen.

Warum ist Remote langsamer? Durch die SSH-Verschlüsselung? (habe ich nicht aktiviert)
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.836
Punkte für Reaktionen
2.272
Punkte
829
Ich habe das nicht im Detail untersucht, aber meine eigenen Erfahrungen decken sich mit den Berichten im Forum. Ich vermute, dass bei den bei einem Backup massiv auftretenden Dateivergleichen Latenzen eine Rolle spielen, aber ich kann mich damit auch irren.
 

Atum

Benutzer
Mitglied seit
22. Apr 2013
Beiträge
5
Punkte für Reaktionen
0
Punkte
0
Weil sie m.W. noch länger dauert als die Sicherung.
Ja, mag ja sein, aber was hilft mir eine Sicherung, die ich nicht mehr zurückspielen kann? Das ist irgendwie zu kurz gedacht, wie ich finde. Klingt für mich so, als würde ich bei der Autobahn den Asphalt weglassen, weil die dann schneller fertig wird.

Frage am Rande: Warum nutzt Du nicht die "Lokale Datenkopie" oder "Ultimate Backup" vom Tommes und PsychoHH aus diesem Forum?
Ich wollte mit der firmeneigenen Softwarelösung arbeiten, weil ich dachte, das hat den besten Support... (haha). Einfaches Datenkopieren würde ja bedeuten, dass ich immer 1TB Daten schaufel muss, das fand ich dämlich und unnötig, inkementell fand ich besser. Und Ultimate Backup... naja, war mir bis eben nicht bekannt ;)
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.836
Punkte für Reaktionen
2.272
Punkte
829
Zum ersten Punkt: Was Du von mir zitierst, ist eine Antwort auf die Frage, warum der Integritätscheck nicht automatisch nach dem Backup gestartet wird. Und da bin ich nicht Deiner Meinung: Bei den hier im Forum veröffentlichten Laufzeiten darf man das nicht zwangsweise automatisch an ein Backup dranhängen. Ich würde es auch nicht nach jedem Backuplauf machen. Es ist gut, dass es die Möglichkeit des Integritätschecks gibt, und man sollte sie auch nutzen. Aber wie dies geschieht, sollte jeder selbst entscheiden können. Eine Option, den Integritätscheck automatisch nach jedem Backup laufen zu lassen, könntest Du aber natürlich als Feature-Request an Synology herantragen.

Zum zweiten Punkt: Alle mir bekannten Synology-Datensicherungen arbeiten so, dass nur die Daten (oder sogar Blöcke) kopiert werden, die neu sind oder sich geändert haben. Und die "Lokale Datenkopie" (bis DSM 5 hieß sie "Datensicherung & Replikation") ist ja auch eine Synology-Lösung.
 

Atum

Benutzer
Mitglied seit
22. Apr 2013
Beiträge
5
Punkte für Reaktionen
0
Punkte
0
Eine Option, den Integritätscheck automatisch nach jedem Backup laufen zu lassen, könntest Du aber natürlich als Feature-Request an Synology herantragen.
Ja, das wäre mal eine Idee. Noch besser fände ich aber die Möglichkeit, dass Synology eine Software für den PC schreibt, der diese rechenintensive Arbeit übernimmt. Ist ja mit dem Photostationuploader ja auch realisiert worden.

Und die "Lokale Datenkopie" (bis DSM 5 hieß sie "Datensicherung & Replikation") ist ja auch eine Synology-Lösung.
Ja, für mich war die Datenkopie das Anstecken der USB Festplatte und c&p der Ordner mittels des Filemanagers. Und das fand ich dann doch nicht gut, weil dann wirklich immer alle Daten geschaufelt werden.
Mittlerweile, nach Abschalten des AV-Paketes und ohne Komprimierung der Daten, läuft die Sicherung bei der kleinen 212j ja immerhin mal durch. Nur das lange Rödeln beim Integritätscheck stört. Allerdings blockiert der immerhin nicht das komplette NAS.
Aber als Alternative dazu gibt es wohl nur die erniedrigung meines Habensaldo ;)
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Das zeigt halt die Grenzen einer 212j.
Gibt ja aber genug Alternative Möglichkeiten um die DS sinnvoll zu nutzen.
 

Joaquim

Benutzer
Mitglied seit
27. Mai 2016
Beiträge
418
Punkte für Reaktionen
2
Punkte
18
Habe jetzt nicht den ganzen Thread durchgelesen, aber ... die automatische Integritätsprüfung habe ich ursprünglich auch vermisst, war das auch anders gewohnt. Nachdem ich den Check über die verschiedenen Jobs habe laufen lassen, konnte ich ebenfalls feststellen, dass es länger gedauert hat, als das "erste" und somit Basis Backup selbst.

Das eine automatische Prüfung in Hyper Backup implementiert würde fänd ich grundsätzlich schon gut, sofern man die Zeiten frei konfigurieren und nicht nur direkt nach Anschluss an das Backup ausführen kann. Hier wurde es auch schon mal angesprochen und ein User hat bei Synology nachgefragt. Soll angeblich für ein künftiges Update geplant sein.


Einfaches Datenkopieren würde ja bedeuten, dass ich immer 1TB Daten schaufel muss, das fand ich dämlich und unnötig, inkementell fand ich besser.

Kann die Aussage von dil88 bestätigen. Bei Lokaler Datenkopie werden auch nur die Änderungen angepasst. Hier läuft bei mir der Gegencheck von knapp 1 TB zwischen 13 und 15 Minuten, sofern sich nichts geändert hat. Entsprechend länger, wenn doch. Kommt natürlich auf die Art der Daten an. In diesem Fall gehts um einen Umfang von ca. 635.000 Dateien und 82.000 Ordner (auf eine USB 3.0 Platte).
 

betacarve

Benutzer
Mitglied seit
30. Jul 2014
Beiträge
110
Punkte für Reaktionen
1
Punkte
18
Ich melde mich jetzt hier auch mal zu Wort - allerdings im positiven Sinne.

Ich habe für ein Hyper Backup von knapp 11TB über LAN auf eine zweite DS (beide DS hängen am selben GB-Switch) 42 Stunden gebraucht. Ich denke, dass ist eine ganz annehmbarer Dauer für die genannte Datenmenge.

Und in der Tat, das die Integritätsprüfung deutlich länger. Meine läuft jetzt seit ca. 24h und steht aktuell bei 39%. Ich arbeite zwischenzeitlich aber auch noch etwas auf der Quell-DS.
 

dil88

Benutzer
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.836
Punkte für Reaktionen
2.272
Punkte
829
Bei etwa 75 MB/s würde ich auch nicht meckern. Welche Modelle nutzt Du dabei?
 

sprengbox

Benutzer
Mitglied seit
04. Dez 2015
Beiträge
198
Punkte für Reaktionen
0
Punkte
16
Ich habe jetzt einmal meine Netzwerkstruktur geändert:

Quell-NAS DS216j -> Ziel-NAS DS215j (beide ext4/Raid 0/DSM 6.0.2-8451 Update 7), beide hängen an einem Zyxel-Switch, das wiederum an einem GB-Lan-Port einer FB 7490 hängt.

Und nun rennt ein versionisiertes Hyper-Backup (ohne Kompression/ohne Verschlüsselung) mit 40-50 MB/s.

Damit bin ich mehr als zufrieden!
 

bitrot

Benutzer
Mitglied seit
22. Aug 2015
Beiträge
878
Punkte für Reaktionen
0
Punkte
36
Synology sollte einfach endlich FTP Support in Hyperbackup einbauen, das mit Abstand schnellste Übertragungsprotokoll für den Datentransfer mit dem geringsten Overhead. Da ist QNAPs RTRR ein wirklicher Segen (wird ab QTS 4.3 in eine einheitliche Backup App integriert), damit kann man die Gigabitschnittstelle locker auslasten (neulich wieder 9TB mit einer Durchschnittsgeschwindigkeit von 112MB/s von meinem QNAP NAS auf die Synology Backup DS gesichert).

So kompliziert kann die Unterstützung dieses uralten Protokolls nicht sein. Vielleicht können Third Party Entwickler aushelfen.
 

Jeeosch

Benutzer
Mitglied seit
15. Jul 2011
Beiträge
2
Punkte für Reaktionen
0
Punkte
1
Ich schiebe diesen Thread mal ein wenig nach oben ... ;-) ... denn ich habe zur Zeit ebenfalls massive Probleme mit Hyper Backup.

Mein Setup:
DS214play mit DSM v6.1-15047 Update 1
Hyper Backup v2.0.2-0433
Externe WD MyBook USB 3.0 6TB, formatiert in EXT4

Das Datenvolumen beläuft sich auf ungefähr 4,2 TB.
Die Backup Task benutzt weder Kompression noch Verschlüsselung.

Zur Geschwindigkeit/Transferrate:
Die kürzlich erstellte Backup Task startete wie geplant um 4:00 Uhr und hatte bis 11:00 Uhr ca. 48GB gesichert.
Das ergibt eine Transferrate von ungefähr 2 MB/s und das würde bedeuten, dass für das oben erwähnte Datenvolumen ungefähr 26 Tage nötig wären!
Ich habe die Backup-Task abgebrochen und erneut gestartet ... keine Änderung ... das Backup läuft immer noch!

Nun ja, das ist wohl kaum akzeptabel.
Ich habe natürlich eine Support-Anfrage an Synology geschickt, aber außer der Bitte, andere Services zu aktivieren (was in meinem Fall nachweislich nichts bringt), ist nichts dabei herausgekommen ... :-(

Ich habe dann mal ein schnödes Copy-Script laufen lassen und bekam sofort Transferraten im Bereich von 68 MB/s, was ja bei USB 3.0 auch zu erwarten ist.

Keine Ahnung, was da mit Hyper Backup schief läuft, aber Synology muss hier dringend nachbessern!!
 

Ekomax1

Benutzer
Mitglied seit
18. Okt 2015
Beiträge
41
Punkte für Reaktionen
0
Punkte
6
Selbe Geräte wie @Jeeosch nur mit 4 TB.
Backup dauerte für 1,5 TB 8 1/2 Stunden.
Lg
 

moonlightshaker

Benutzer
Mitglied seit
01. Jul 2013
Beiträge
80
Punkte für Reaktionen
0
Punkte
6
Bei mir kopierte er 1,33TB in ca. 5 Stunden. Das macht dann ca. 77 mb/s. Dabei lief aber noch eine Konsistenzprüfung auf dem Raid da mir eine Platte kurz vorher abgeschmiert ist.
Ich hab allerdingst die Alte Datenkopie Medode genommen.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat