Backup nach Amazon Drive?

Status
Für weitere Antworten geschlossen.

AndiHeitzer

Benutzer
Sehr erfahren
Mitglied seit
30. Jun 2015
Beiträge
3.317
Punkte für Reaktionen
600
Punkte
174
- weiteres Volumen mit BTRFS mit den 4 Platten auf der DX513 erstellen (Wichtige Frage, dazu habe ich nirgends eine Info gefunden: Unerstützt die DS415+ BTRFS extern?)

Die DS415+ kann auf der DX513 ein BTRFS-Volumen erstellen und verwalten.
Ich hab's grade eben getestet :eek:
 

smoochy

Benutzer
Mitglied seit
07. Sep 2013
Beiträge
46
Punkte für Reaktionen
0
Punkte
6
@Psycho: Ich würde die Amazon Cloud ja auch nur für die Dauer des Umzugs der Daten nutzen wollen.

@Andi: Danke für die Info. Leider kann die DS415+ wie dil88 sagte, nur ein neues Volumen auf der DX513 erstellen, nicht das Volumen der DS415 vergrößern. Von daher fällt diese Variante leider raus.
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Ja ich sag ja nur, so oft wie hier in der Zeit Probleme auftauchen wäre mir persönlich das Risiko zu groß.
Muss aber jeder selber wissen. Man kann ja nur warnen. Brenn die wichtigsten Daten auf DVD oder externe Platten.

Ist so als wenn man sag ich muss mich nicht anschnallen sind ja nur 100m :) Und bäm genau dann passiert was
 

AndiHeitzer

Benutzer
Sehr erfahren
Mitglied seit
30. Jun 2015
Beiträge
3.317
Punkte für Reaktionen
600
Punkte
174
@Andi: Danke für die Info. Leider kann die DS415+ wie dil88 sagte, nur ein neues Volumen auf der DX513 erstellen, nicht das Volumen der DS415 vergrößern. Von daher fällt diese Variante leider raus.

Das ist richtig, steht ja so auch irgendwo auf der SYNO-Seite ...
Aber warum muß ein Volume unbedingt über eine EXTENSION gespannt werden?
 

DirkKn

Benutzer
Mitglied seit
11. Apr 2016
Beiträge
125
Punkte für Reaktionen
13
Punkte
18
Hi,

nachdem die hier schon einiges bzgl. Unterbrechungen geschrieben wurde...
Z.Zt. läuft seit 3 Tagen bei mir mal wieder ein Initialbackup (Hyperbackup -> AmazonDrive), welches ca. gesamt 10 Tage brauchen wird. Die täglichen Zwangstrennungen übersteht das Backup problemlos (kann aber auch sein, dass es an meiner Fallbackleitung liegt). Einen zwei bis drei Minuten langen Hänger des VDSL-Modems vor einigen Tagen hatte es leider nicht überlebt, da dies für den Router leider nicht als Ausfall zu erkennen ist.

Nun ist ausgerechnet heute ein dringend erwartetes Firmwareupdate meines Routers rausgekommen und da habe ich mir überlegt einfach mal zu probieren während des Router-Reboots das Hyperbackup anzuhalten.
Und mein Plan hat tadellos funktioniert. :D :cool:

Das Anhalten geht ja nicht über die GUI, also musste ich es über die Kommandozeile machen. Hier mein Beispiel:
root@synology:~# ps -ef | grep -i hyperback
root 11302 17620 0 Dec03 ? 00:24:07 /var/packages/HyperBackup/target/bin/img_backup -B -k 4
root 11303 17620 0 Dec03 ? 00:24:06 /var/packages/HyperBackup/target/bin/img_backup -B -k 4
root 11304 17620 0 Dec03 ? 00:24:22 /var/packages/HyperBackup/target/bin/img_backup -B -k 4
root 11305 17620 0 Dec03 ? 00:24:19 /var/packages/HyperBackup/target/bin/img_backup -B -k 4
root 16796 6337 0 22:15 pts/6 00:00:00 grep --color=auto -i hyperback
root 17620 12281 0 Dec03 ? 00:01:25 /var/packages/HyperBackup/target/bin/img_backup -B -k 4
HyperBa+ 18016 17620 1 Dec03 ? 00:53:15 /var/packages/HyperBackup/target/bin/img_backup -B -k 4
root 18077 18016 0 Dec03 ? 00:00:17 /var/packages/HyperBackup/target/bin/img_backup -I -p /tmp/scoped_temp_file.mMklHy
root@synology:~# kill -s stop 11302 11303 11304 11305 17620 18016 18077
root@synology:~# kill -s cont 11302 11303 11304 11305 17620 18016 18077
Das Ganze hat ca. 3 Minuten gedauert und ich habe dabei gewartet, bis alle DSL-Verbindungen wieder online waren und auch der CloudSync sich wieder mit AmazonDrive verbunden hatte, bevor ich das "kill -s cont" abgesetzt habe.

Vielleicht hilft der Tipp ja dem einen oder anderen in einer ähnlichen Situation. Dass es bei mir geklappt hat ist natürlich keine Garantie, dass es auch bei euch klappt. :p:rolleyes:

Beste Grüße
Dirk
 

Tom H

Benutzer
Mitglied seit
21. Apr 2016
Beiträge
15
Punkte für Reaktionen
0
Punkte
0
Danke für den Tipp - gleich mal für den Fall der Fälle gesichert.

Mit den Abbrüchen ist es bei mir bedeutend besser geworden. Seit Wochen kein Abbruch mehr und mittlerweile habe ich mich auf eine Laufzeit von einer ganzen Woche hochgetastet. Mit der angestiegenen Ordnerzahl ist dafür sukzessive HB beim Öffnen und auch beim Editieren des Jobs immer langsamer geworden. Das Öffnen von HB dauert nun schon über eine Minute mit der DS215j.
 

thakikka

Benutzer
Mitglied seit
13. Nov 2016
Beiträge
135
Punkte für Reaktionen
0
Punkte
22
Ich habe festgestellt, dass man offenbar nicht nachträglich einen Ordner vollständig anhaken kann.

Also bspw.:

Ordner1
-> Ordner1.1
-> Ordner1.2
-> Ordner1.3
-> Ordner1.4
-> Ordner1.5
-> Ordner1.6
usw.

Wenn Ordner1 zu groß wäre (bzw. das Risiko, dass der Auftrag abbricht), würde man ja bspw. zunächst die Unterordner 1.1 bis 1.3 sichern, später dann die Unterordner 1.4 bis 1.6 hinzufügen. Wenn dann irgendwann alle Unterordner hochgeladen wurden, kann man nun nicht einfach den "Ordner1" komplett anhaken - der Auftrag bricht mit einer Fehlermeldung ab. Nein, man muss jeden einzelnen Unterordner anhaken, damit es klappt.

Merkwürdig. Und doof, weil so würden Dateiinhalte des "Ordner1" nie mitgesichert werden können.
 

Weisgarnix

Benutzer
Mitglied seit
20. Okt 2015
Beiträge
79
Punkte für Reaktionen
0
Punkte
6
Hi thakikka.
Kann es sein, dass du zu Beginn Ordner1.1 hinzugefügt hast und nicht Ordner1? Daher kannst du nur weitere Unterordner von Ordner1 anhaken und abhaken.
Ist aber nur eine begründete Vermutung, keine sichere Aussage.
 

thakikka

Benutzer
Mitglied seit
13. Nov 2016
Beiträge
135
Punkte für Reaktionen
0
Punkte
22
Genau. Ich konnte ja leider nicht den gesamten Ordner1 hinzufügen, da dieser zu groß ist und mir das Risiko eben auch zu groß war, dass der Upload nach Wochen abbricht.
 

Weisgarnix

Benutzer
Mitglied seit
20. Okt 2015
Beiträge
79
Punkte für Reaktionen
0
Punkte
6
Verstehe ich. Geht mir ja genauso.
Ich verschiebe nun alle paar Tage einen Unterordner in meinen synchronisierten Ordner, das ist viel einfacher und ich brauch gar nix in der Sync-App rumkreuzen^^
Habe meine alte Freigabe umbenannt gehabt in "NAME_alt" und eine neue angelegt mit "NAME". Die Unterordner bzw. Unterordner der Unterordner verschiebe ich nun von Zeit zu Zeit und warte dann, bis der Haken wieder grün is ;)
 

frankyst72

Benutzer
Mitglied seit
01. Jun 2015
Beiträge
1.959
Punkte für Reaktionen
8
Punkte
58
der Auftrag bricht mit einer Fehlermeldung ab. Nein, man muss jeden einzelnen Unterordner anhaken, damit es klappt.
kann ich nicht bestätigen, aber das habt Ihr ja schon geklärt, warum das so ist bei thakikka.

Bei mir ist es ohne Probleme möglich, den Haken bei dem übergeordneten Ordner zu setzten, wenn ich schon einige Unterordner gebackuped habe.
 

LostWolf

Benutzer
Mitglied seit
03. Aug 2015
Beiträge
46
Punkte für Reaktionen
0
Punkte
0
Bis zu welcher Datei Größe wäre dein ein einzelner Backup-Job sinnvoll bei einem upload von ca. 30MBit/s (VDSL)?
Können auch mehrere dieser Jobs dann später gleichzeitig laufen?
Für persönliche Daten und Fotos würde ich gerne das mein NAS täglich sichert und für Videos reicht eigentlich locker einmal die Woche.

Gibt es eigentlich eine Möglichkeit ohne NAS dann an die Daten des Backups (verschlüsselt) zu kommen?
Also z.B. von einem PC/Mac aus ein Bild anzusehen.
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
Sinnvoll... sehe ich keine Grenze, außer du hast Probleme mit Verbindungsabbrüchen hast. Bei VDSL gibt die Telekom semi-statische IPs raus. Jedenfalls meine Erfahrung mit den 3 VDSL Anschlüssen die ich einsehen kann, wenn man die Zwangstrennung im Router abschaltet. Die Zeit die du brauchst kannst du dir ja mit den 3.8Mbyte/s die du da hast selber ausrechnen für den initialen Joblauf.

Mehrere Jobs sind kein Problem, nur zu jeder Zeit läuft eben glaube nur einer, die anderen müssen warten.

Hyper Backup Explorer. Download im Download-Zentrum auf der Synology Seite zu deinem Modell.
 

frankyst72

Benutzer
Mitglied seit
01. Jun 2015
Beiträge
1.959
Punkte für Reaktionen
8
Punkte
58
Die Jobs können nicht gleichzeitig laufen. Man kann sie aber alle gleichzeitig starten, sie werden dann sequentiell abgearbeitet.

Für persönliche Daten und Fotos würde ich gerne das mein NAS täglich sichert und für Videos reicht eigentlich locker einmal die Woche.
und wo ist das Problem, wenn die Jobs alle täglich laufen? Wenn nichts zu tun ist, ist nichts zu tun. Das soll nur zum Denken anregen :) Je öfter die Jobs laufen umso kleiner sind etwaige Portionen...

Wobei man anmerken muss, dass man zwar mit dem HyperBackup Explorer HyperBackup-Backups auch ohne DS öffnen kann, aber im Fall Amazon Cloud muss man das Backup erst mal komplett herunterladen (ggf. Zeit- und Platzproblem) muss um es dann mit dem Tool unter WIndows, Mac oder Linux öffnen zu können. Alternativ gibt es Tools (ca. 40-50 €/$) zum mounten von Amazon Drive, damit kann man direkt dann auf der Cloud arbeiten.
 

LostWolf

Benutzer
Mitglied seit
03. Aug 2015
Beiträge
46
Punkte für Reaktionen
0
Punkte
0
Kann ich aus dem Explorer dann direkt auf das Amazon Drive zugreifen oder müssen die Daten lokal vorliegen?

Edit:
Danke, hat sich also erledigt die Frage
 

LostWolf

Benutzer
Mitglied seit
03. Aug 2015
Beiträge
46
Punkte für Reaktionen
0
Punkte
0
Wenn ich folgende Ordner habe:
Bilder1
Bilder2
Bikder3
Und verschiebe dann Bilder2 und Bilder3 in Bilder1 oder verschiebe alle drei in einen neuen Ordner.
Werden dann die Ordner erneut hochgeladen oder nur die Änderung das diese verschoben wurden?
 

ScottyC

Benutzer
Mitglied seit
18. Feb 2016
Beiträge
295
Punkte für Reaktionen
2
Punkte
18
Hallo zusammen,

meine Backups auf AmazonDrive laufen teilweise immer auf einen Fehler.

Ich habe für meine Backups vier verschiedene Jobs angelegt, damit es nicht ein Riesen-Backup gibt.
Alle vier sind versionierte Hyper Backup-Jobs, die in der Nacht automatisch laufen sollen.
Das Anlegen hat problemlos funktioniert, allerdings laufen nur zwei Jobs fehlerfrei; zwei produzieren immer die gleiche Fehlermeldung (siehe Screenshot).
Leider ist der Text der Fehlermeldung nicht gerade sprechend ... :mad:

Was ist sonst noch über die Jobs zu sagen:
- Sie überschneiden sich zeitlich nicht; aber selbst wenn, sollten sie sequentiell abgearbeitet werden.
- Sie fallen nicht in die 24h- Zwangstrennung durch den Internet-Provider.
- Auf alle Jobs kann ich über den Daten-Sicherungsexplorer zugreifen.
- Die beiden Backups die auf Fehler laufen haben eine Größe von 2 und 26 GByte - wollte beim Experimentieren nicht zu viel reinpacken.
- Die Backups die durchlaufen sind kleiner als 1 GByte.

Mehr fällt mir nicht ein :confused:
Hat von euch jemand eine Idee?
Kenn ihr das Phänomen?

Danke :D
Backup_Fehler.jpg
 

KGBist2000

Benutzer
Mitglied seit
10. Jan 2016
Beiträge
159
Punkte für Reaktionen
23
Punkte
18
Kann ich aus dem Explorer dann direkt auf das Amazon Drive zugreifen oder müssen die Daten lokal vorliegen?

Edit:
Danke, hat sich also erledigt die Frage
Und wie hat sich as erledigt?

http://www.synology-forum.de/showth...xplorer-durchsuchen-der-Sicherung-auf-HiDrive


Hat sich schon jemand mal gedanken gemacht, wie man eine bestimmte Datei aus dem Backup widerherstellen kann? Auch dann wenn die Synology z.B. tot ist. Muss mann dann zunächst das Gesamte BackUp runterlagen? Ich meine bei ca. 10 TB an Daten und dass versioniert über mehrere Jahre ergibt sicherlich 100 TB an Daten zum Download um dann mit HyperBackUp-Explorer eine bestimmte datei von 100 KByte herauszusuchen.So stelle ich es mir vor. Was denkt ihr, wie würdet ihr das machen?

Hat schon jemand mal mit den Mout-Tools aus #314 gearbeitet?
 
Zuletzt bearbeitet:

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.159
Punkte für Reaktionen
912
Punkte
424
@KGBist2000 - siehe Post #314 genau einen oberhalb des von dir zitierten.
 

thakikka

Benutzer
Mitglied seit
13. Nov 2016
Beiträge
135
Punkte für Reaktionen
0
Punkte
22
Hat schon jemand mal mit den Mout-Tools aus #314 gearbeitet?

Ja, ich hatte mir beim letzten Black Friday relativ günstig ExpanDrive zugelegt. Nur für den Fall der Fälle, dass ich eben ohne DS mal auf einzelne Daten zugreifen muss/will.

Du gibst dort nach Installation deine AmazonDrive-Konto-Zugangsdaten in der Software ein und hast nach erfolgter Verbindung ein neues Laufwerk, in dem direkter Zugriff auf deine Daten möglich ist. Über diesen (virtuelle) Laufwerk kannst du dann über den Hyper Backup Explorer auch einzelne Dateien wiederherstellen - eben ohne vorherigen Komplettdownload.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat