Backup nach Amazon Drive?

Status
Für weitere Antworten geschlossen.

andlsbuch

Benutzer
Mitglied seit
15. Feb 2011
Beiträge
123
Punkte für Reaktionen
0
Punkte
16
Hast du eine externe 2TB Platte? Wenn ja dann exportier auf diese und spiel die Daten anschließend auf die DS213. Umständlich, aber Cloudsync geht leider nicht mit einer externen Platte...
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Hab kurzfristig Inhalt auf die DS213 kopiert. Der Export hat nun funktioniert. Rund 1,8 TB. Habe mit diesem Verzeichnis CloudSync eingerichtet. Die Änderungen werden lokal auf Amazon geladen. Muß ich danach die Aufgabe neu verknüpfen, oder hätte ich das schon vor dem Upload machen müssen?

cloudsync.jpg
 
Zuletzt bearbeitet:

CrimsonGlory

Benutzer
Mitglied seit
08. Okt 2011
Beiträge
218
Punkte für Reaktionen
13
Punkte
18
Find's nur schade das mit HyperBackup keine filebasierte Sicherung gibt.

Habe jetzt mit CloudSync die Daten zu AmazonDrive geladen.
Das Problem aber, wenn ich die DS neustarte beginnt er alle Daten wieder vom neuen zu syncen.
Klar, er lädt diese nicht nochmal hoch aber bei 400000 Dateien dauert es eine weile bis er wieder alles "neu gesynct" hat.
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Es gibt schon eine filebasierte Lösung (Lokale,- Remote Datensicherung), die funktioniert aber bei Amazon nicht.
 

andlsbuch

Benutzer
Mitglied seit
15. Feb 2011
Beiträge
123
Punkte für Reaktionen
0
Punkte
16
Muß ich danach die Aufgabe neu verknüpfen, oder hätte ich das schon vor dem Upload machen müssen?

Anhang anzeigen 32759

Du verknüpfst die Aufgabe neu, nachdem alle Dateien hochgeladen sind.
Ich bin mir nicht 100%ig sicher aber ich glaube die Neuverknüpfung verlangt einen Ordner und darin wieder einen Unterordner. Bei mir zum Beispiel \zbackup\desasterbackup
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Hoffentlich kann ich das dann in Amazon Drive nachträglich in einen Unterordner verschieben. Hier muß man ziemliche Handstände veranstalten. So das Gelbe vom Ei scheint das ganze ja nicht zu sein...
 

CrimsonGlory

Benutzer
Mitglied seit
08. Okt 2011
Beiträge
218
Punkte für Reaktionen
13
Punkte
18
Ja, die Lokale- und Remotesicherung kenn ich :D
Aber wie du schon sagtest, nicht bei Amazon.
Aber was nicht ist kann ja noch werden, da es ja in Beta ist.
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Das sagst Du so in Deinem jugendliche Leichtsinn. :)

Ich verstehe trotzdem nicht warum man so eine grundlegende Funktion nicht einbaut.
Es ist ja nicht mehr so wie vor 20 Jahren, daß man nur ein paar Megabyte wegsichert....
 

andlsbuch

Benutzer
Mitglied seit
15. Feb 2011
Beiträge
123
Punkte für Reaktionen
0
Punkte
16
Der jugendliche Leichtsinn hat sich bezahlt gemacht :)

Ich verstehe auch nicht warum Synology es so gemacht hat dass alle Backup Jobs blockiert werden bis es fertig ist.
Auch eine Datenflusskontrolle wär sehr wünschenswert!
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Das blockieren der übrigen Backups wäre ja noch zu verschmerzen.
Das aber ein fehlgechlagenes/unterbrochenes Backup wieder gänzlich von vorne beginnt ist einfach nicht akzeptabel.
 

andlsbuch

Benutzer
Mitglied seit
15. Feb 2011
Beiträge
123
Punkte für Reaktionen
0
Punkte
16
Hat eigentlich jemand eine Ahnung was es mit dem lokalen Index auf sich hat? Der Wert steht nur ab und zu da!
 

Anhänge

  • 2016-09-18 23.23.54.jpg
    2016-09-18 23.23.54.jpg
    24,5 KB · Aufrufe: 164

AndiHeitzer

Benutzer
Sehr erfahren
Mitglied seit
30. Jun 2015
Beiträge
3.332
Punkte für Reaktionen
624
Punkte
174

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Jetzt bin ich völlig konfus. Das Thema, daß Backups nach Unterbrechung wieder von vorne beginnen hat mich dazu veranlasst eine Mail an den Support zu schreiben. Die Antwort war auch nach 2 Tagen da:

Rich (BBCode):
Sehr geehrter Herr xxx,

danke für Ihre Nachricht an uns.

Eigentlich ist dies kein Problem oder Fehler und sollte inkrementell durchlaufen. Wie genau verzeichnen Sie das Problem bitte?

Haben Sie diese Erscheinung auch mit einem anderen angelegten Ordner auf dem NAS? Kopieren Sie einmal den Inhalt hierher und  stoßen Sie den Prozess erneut an und beobachten Sie dies nochmals. 

Senden Sie uns andernfalls bitte (als Antwort auf diese Email) eine Debug-Datei, um das Problem näher zu analysieren. Sie können die Debug-Datei mit den folgenden Schritten in Ihrem DSM generieren: Hauptmenü> Support Center> Support Dienste> Log-Datei erzeugen ....

 

Wir bitten bei der Analyse allerdings um etwas Geduld und melden uns erneut bei Ihnen.

 

 

Vielen Dank und mit freundlichen Grüßen
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Wollte hier nicht einer mal die Geschwindigkeit beim Upload zeitlich begrenzen?

Mir ist da gerade was aufgefallen beim durchsuchen des Synologys System.

Es gibt eine /usr/syno/bin/synobandwidth
Mit unter anderem folgenden Optionen:



--status [<list=user|group|all(default)> <transfer=upload|download|all(default)>] <merge=0|1(default)>]

--get-global-conf [<protocol=filestation|webdav|ftp|rsync|all(default)>
--set-global-conf <state=enabled|disabled> [<protocol=filestation|webdav|ftp|rsync|all(default)>
<user_group=user_only|group_only|user_first(default)|group_first|min|max|sum> <inter_group=min(default)|max|sum> <occupy=none|all(default)|min|max|weighted>
--get-user-conf <username>
--set-user-conf <username> <state=enabled|disabled> [<protocol=filestation|webdav|ftp|rsync|all(default)>
<download_rate=x|0(default)> <upload_rate=x|0(default)>] Note: rate in KB/s, 0 for unlimited.
--get-group-conf <groupname>
--set-group-conf <groupname> <state=enabled|disabled> [<protocol=filestation|webdav|ftp|rsync|all(default)>


Nun könnte man versuchen per --set-user-conf oder --set-group-conf auf all den Speed zeitlich zu begrenzen und danach wieder auf unlimited stellen.
k.A. welches Protocol da genutzt wird, aber evtl. klappt es mit all.

Falls es jemand probieren will :)
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Macht euch das nicht stutzig was mir der Support schreibt?
Ich habe das mal nachgestellt.
Ziel war ein 5 GB großer Ordner per HyperBackup zu Amazon.
Nach 50% habe ich den Auftrag manuell beendet.
Anschließend habe ich mich bei Amazon angemeldet und den Speicherplatz geprüft. Wie erwartungsgemäß waren rund 2,5 GB belegt.
Dann habe ich das vorher abgebrochene Backup manuell wieder gestartet. HyperBackup fängt das rödeln an, der Speicher in Amazon fängt aber wieder bei 0 MB an. Da ist doch irgendwas faul an der ganzen Sache...
 

frankyst72

Benutzer
Mitglied seit
01. Jun 2015
Beiträge
1.959
Punkte für Reaktionen
8
Punkte
58
ich glaube es hängt von der Länge der Unterbrechung ab. Habe gerade meinen Router neu gestartet, Der Amazon Job ist weiter gelaufen. Manuell gestoppte oder lang unterbrochene Backups verhalten sich vielleicht anders.
 

Tschaensky

Benutzer
Mitglied seit
29. Okt 2012
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
@rednag:

Mache gerade mein Initialbackup zu Amazon Drive. Und zwar Teil für Teil. Ich füge immer einige neue Ordner zur Backup-Aufgabe hinzu, lasse das Backup laufen, dann wieder neue Ordner hinzu, wieder laufen lassen, usw.. Ich habe also eine große Backup-Aufgabe, die ich nach und nach mit weiteren Ordnern erweitere.

Wenn ich das Backup nun manuell oder durch längere Leitungsunterbrechung abbreche, so wird beim Neustart der Backup-Aufgabe ohne Veränderung der Einstellungen nur der letzte Teil des Backups (also der, den ich zuletzt hinzugefügt habe) vom Amazon-Drive gelöscht und wieder neu hochgeladen. Die Backupdaten des letzten Teils befinden sich dann im Papierkorb von Amazon-Drive, der Rest bleibt im Backup-Ordner erhalten. Siehe Web-Oberfläche.

Das deckt sich eigentlich mit dem, was Synology schreibt. Bis zum letzten erfolgreich abgeschlossenen Inkrement wird alles beibehalten und nur das letzte, unterbrochene wird gelöscht und neu gesichert.

Bei einem unterbrochenen "einteiligen" Initialbackup wird dann foglich auch das gesamte Backup gelöscht und neu hochgeladen, da ja noch kein Teil davon erfolgreich abgeschlossen worden ist.
 
Zuletzt bearbeitet:

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.955
Punkte für Reaktionen
12
Punkte
104
Das mit dem Erweitern hat @AndiHeitzer schon hier geschildert. Leider ist das bei meinem Spielfilm-Ordner nicht möglich. Darin sind rund 1.700 Filmer ohne weitere Unterordner.
 

Tschaensky

Benutzer
Mitglied seit
29. Okt 2012
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Du kannst ja deine Filme vorübergehend in einen anderen temporären Ordner verschieben, und dann den Spielfilm-Ordner häppchenweise wieder befüllen und jedesmal sichern. Dann sollte sich das Backup bei Abbruch auch so verhalten, wie von mir beschrieben.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat