Ultimate Backup Ultimate Backup

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
30.638
Punkte für Reaktionen
2.046
Punkte
829
Du kannst über die FileStation m.W. einen Remote Ordner auch dauerhaft definieren. Den solltest Du dann auch mit Ultimate Backup sichern können, wenn ich das richtig in Erinnerung habe.
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Ja genau, so habe ich auch einen Remote Ordner eingebunden :)
 

thakikka

Benutzer
Mitglied seit
13. Nov 2016
Beiträge
135
Punkte für Reaktionen
0
Punkte
22
Ich bekomme jetzt neuerdings diverse Fehler nach folgendem Muster:

Time value of /volume1/xxx/xxx/LwE/xxx/xxx/xxx/datei.xxx truncated on receiver.
[...]

und am Ende dann:

rsync error: some files/attrs were not transferred (see previous errors) (code 23) at main.c(1355) [sender=3.0.9]

edit: Ich seh gerade im direkten Vergleich, dass die betroffenen Dateien ein Änderungsdatum mit dem Jahr 2040 haben. Sie leben ihrer Zeit also ein wenig weiter voraus :D
 
Zuletzt bearbeitet:

chris24

Benutzer
Mitglied seit
01. Dez 2016
Beiträge
16
Punkte für Reaktionen
0
Punkte
1
Du meinst, das ich am Anfang Eures Scripts einen Mountbefehl zum einhängen des CIFS einfüge und am Ende einen unmount durchführe?
An welcher Stelle müsste ich das tun und wie ist am besten der Syntax. Sorry bin neu im Thema.
Das mit dem Remote Ordner funktioniert bei mir gut, aber besser fände ich es wenn ich direkt sichern könnte. Es geht aber auch so. Echt tolle arbeit von Euch.

Gibt es eine möglichkeit Daten von einer Enigma2 Box (ist ja auch Linux) direkt über rsync zu sichern? Dabei soll die DS die Sicherung durchführen. Ein rsync-Paket für Enigma ist installiert, aber ich bekomme keine Verbindung auf dem Standardport.
 
Zuletzt bearbeitet:

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Ja theoretisch schon oder du nutzt einfach die Funktion der FileStation.
Wie man cifs unter Linux mountet kriegt man schnell per Google raus.

Theoretisch sollte es auch mit der Enigma2 Box gehen. Du musst nur den richtigen Port nehmen und die SSH Keys nutzen.
 

chris24

Benutzer
Mitglied seit
01. Dez 2016
Beiträge
16
Punkte für Reaktionen
0
Punkte
1
Na dann werde ich mal Googlen und versuchen das Skript anzupassen.
Das mit der Enigma Box lasse ich wohl lieber. Habe schon einiges probiert und es ist auch spannend, aber es frisst enorm Zeit welche ich nicht habe.
Deshalb kann ich auch ein wenig Eure Arbeit einschätzen die Ihr in das Tool gesteckt habt. Danke dafür.
 

thakikka

Benutzer
Mitglied seit
13. Nov 2016
Beiträge
135
Punkte für Reaktionen
0
Punkte
22
Mir fällt gerade auf, dass auf der Backup-DS nicht der gleiche Stand wie auf der Daten-DS ist. Dateien, die zwischenzeitlich (also u.a. bereits mehreren Sicherungen zwischendurch) auf der Daten-DS gelöscht wurde, sind nach wie vor auf der Backup-DS im entsprechenden Verzeichnis zu finden.

Ist sicherlich nur eine kleine Einstellung bzw. irgendein Parameter, der mir da fehlt. Nur welche/r?

P.S.: Es geht mir nicht um den @Recycle-Ordner. Dafür habe ich die Dauer eh nur auf "1" stehen.
 

Tommes

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
26. Okt 2009
Beiträge
9.662
Punkte für Reaktionen
1.562
Punkte
314
Unter welchem SSH-Benutzer führst du die Sicherung durch?

Was sagt das Sicherungs Protokoll? Steht dort irgendwo etwas von... (sprichwörtlich) ... das die Daten im Ziel nicht gelöscht werden könnten?

Vielleicht auch mal einen DRY-Run inkl. Debug-Protokoll durchführen um evtl. Rückschlüsse ziehen zu können.

Tommes
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Genau paar Infos wären noch ganz gut, gerne auch an uns per pn.

Welcher User, fromssh oder tossh welche syncopt und was steht im log, evtl ein error mit can Not delete? Am besten mit exit Code. Rsync ist in der Syntax und Fehlerausgabe aber teilweise sehr wählerisch, zickig und auch nicht sehr Aussagekräftig.

Deshalb immer mal logs checken ob ein error vorhanden ist. Die Benachrichtigung kann man ja auch so einstellen, dass man nur eine Benachrichtigung bekommt wenn es einen Fehler gab.

Du kannst aber bei den syncopt mal -r probieren und auch -m
 

Alberto

Benutzer
Mitglied seit
26. Nov 2013
Beiträge
54
Punkte für Reaktionen
0
Punkte
0
...EXCLUDE...
Ich hab es nicht getestet, aber so wie PsychoHH beschrieben und du umgesetzt hast, sollte es funktionieren.
Und ja, es funktioniert jetzt so wie erwartet und gewollt. Herrlich, einfach eine Kopie. :)

@Alberto: Man kann unter Hyper Backup mittlerweile wieder ein Datensicherung auswählen, mit der Daten direkt ins Filesystem geschrieben werden. Nennt sich "Lokale Datenkopie" und "Remote-Datenkopie"...
Vielen Dank für den Hinweis. Ich muss in Hyper Backup ganz runter scrollen, dann kommt "Lokale Datenkopie". Oben hatte ich eben "Lokaler freigegebener Ordner und externer Speicher". Das man erst mit dem ersten auf die Schnauze fallen muss. ;)

Ich mache jetzt jeweils Hyper Backup und Ultimate Backup und vergleiche die Ergebnisse. Ich vergleiche mit dem Total Commander, was allerdings bei der Dateimenge/Größe sehr lange dauert. Wenn ich mich auf ein Backup eingeschossen habe, werde ich das andere bleiben lassen.

USB Copy scheint es mal gegeben zu haben und soll vielleicht bald wieder kommen. Das wäre was. Beim Anstöpseln einer USB-HDD wird ein Backup auf diese geschoben. Zack.
https://www.synology.com/de-de/beta/2017_USB_Copy
http://www.synology-wiki.de/index.php/Den_Synology-Server_auf_eine_externe_USB-Festplatte_sichern
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Das geht mit Ultimate Backup und autorun auch. Dann ist es sogar egal welcher Port genutzt wird usw. Und man kann sogar von einer externen DS/Server die Daten auf die angeschlossene Festplatte kopieren. Automatisch. Probier das mal so mit USBCopy. Und bei defekten Dateien dir ich mit USBCopy hatte will ich gar nicht anfangen :)
 

Tommes

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
26. Okt 2009
Beiträge
9.662
Punkte für Reaktionen
1.562
Punkte
314
... und wir können über ein entsprechendes Key-File, welches sich mit auf dem USB-Stick befindet, verschlüsselte Ordner auf der DS einhängen, die Daten vom USB-Stick dann dort rein schieben um im Anschluss den verschlüsselten Ordner wieder auszuhängen. Über eine entsprechende SSH-Verbindung können wir das sogar von der lokalen DS aus, auf eine entfernte DS durchführen.

BÄM!
 

thakikka

Benutzer
Mitglied seit
13. Nov 2016
Beiträge
135
Punkte für Reaktionen
0
Punkte
22
An welchem Rädchen muss ich drehen, wenn ich quasi nur einen 1:1 Abgleich von der Daten-DS haben mag? Also ohne Nutzung des Recycle-Ordners.
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Recycle var auskommentieren
 

dromaius

Benutzer
Mitglied seit
02. Dez 2016
Beiträge
7
Punkte für Reaktionen
0
Punkte
1
Hallo,

ich habe bei mir auf der NAS die das Backup erhalten (Cloudstation) soll das Ultimate Backup 0.30.5 installiert. Das Script kann nicht von der Quell DS (Diskstation 192.168.100.5) das Verzeichnis /volume2/homes sichern. Es ist unabhängig ob ich

homes
/homes
/volume2/homes etc angebe.

wenn ich das Backupscript mit "sh -x /<verzeichnis>/rsync_Diskstation.sh dry" aufrufen, sehe ich das der erste Test erfolgreich war, danach findet jedoch ein Test mit /volume1 statt, der nicht funktionieren kann, da homes bei mir auf /volume2 liegt. Ich finde im Script leider die Ursache nicht.

Rich (BBCode):
+ echo ------------------------------------------------------------------------------------------------
+ [[ v != \/ ]]
+ SHARE=/volume2/homes
+ SHARE=/volume2/homes
+ SHARE=/homes
+ SHARE_CUT=homes
+ SHARE_FIRST=homes
+ SHARE_LAST=homes
++ sed -e 's/ /\\ /g'
++ echo /homes
+ SHARE_ESCAPE=/homes
++ echo homes
++ sed -e 's/ /\\ /g'
+ SHARE_CUT_ESCAPE=homes
++ sed -e 's/ /\\ /g'
++ echo homes
+ SHARE_FIRST_ESCAPE=homes
++ echo homes
++ sed -e 's/ /\\ /g'
+ SHARE_LAST_ESCAPE=homes
+ IFS=' 	
'
+ unset FORERROR
+ '[' 1 -eq 0 ']'
+ '[' 1 -eq 1 ']'
+ SOURCE=/homes
+ '[' -z '' ']'
+ '[' -z '' ']'
+ '[' -n 192.168.100.5 ']'
+ '[' -z '' ']'
++ ssh root@192.168.100.5 'echo /volume?/homes'
+ SF=/volume2/homes
+ SLOG=Diskstation:/volume2/homes
+ TLOG=Cloudstation:/volume1/NetBackup/Diskstation
+ DLOG=Cloudstation:/volume1/NetBackup/Diskstation
+ SOURCE=homes
+ '[' -z '' ']'
+ '[' -z '' ']'
+ CHECK_TEST='ssh root@192.168.100.5 test'
+ CHECK_PATH='/volume?/'
+ '[' -z '' ']'
+ ssh root@192.168.100.5 test -d /volume1/homes
+ ERROR='Quellordner /homes nicht erreichbar...'
+ FORERROR=1
+ '[' -z 1 ']'
+ '[' -n '' ']'
+ '[' -z '' ']'
+ '[' -z '' ']'
+ '[' -z 'Quellordner /homes nicht erreichbar...' ']'
+ '[' -ne 0 ']'
/volume1/NetBackup/rsync_Diskstation2.sh: line 944: [: -ne: unary operator expected
+ '[' -n '' ']'
+ '[' -n 'Quellordner /homes nicht erreichbar...' ']'
+ echo ------------------------------------------------------------------------------------------------

Bin für jegliche Hinweise dankbar.

Gruß

Volkmar
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Hallo,

kann es sein, dass homes auf einer DS auf /volume1 und auf der anderen auf /volume2 liegt?
 

dromaius

Benutzer
Mitglied seit
02. Dez 2016
Beiträge
7
Punkte für Reaktionen
0
Punkte
1
Hallo PsychoHH,

ja es ist so:

Die Backup DS216+II hat ein Volume
Die Arbeits DS916+ hat zwei Volumes und homes liegt auf dem zweiten.

Gruß Volkmar
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Alles klar habe ich mir gedacht, du bist der erste, der dies gemeldet hat. Irgendwie auch nie probiert :rolleyes:

Kannst mal folgendes probieren, kurz über:
# SSH-SSH_FROM RSync-Datensicherung VON einer entfernten DS oder komp. Server


Die folgenden Zeilen auszukommentieren, so:


# if $CHECK_TEST -d $CHECK_PATH"$SOURCE"; then
# echo "$SOURCE_DIR $SHARE erreichbar." >> $LOG
# else
# ERROR="$SOURCE_DIR $SHARE nicht erreichbar..." >> $LOG
# FORERROR="1"
# fi


Sonst muss ich mal schauen ob ich nachher gucke ob ich das anders anpasse.
 

dromaius

Benutzer
Mitglied seit
02. Dez 2016
Beiträge
7
Punkte für Reaktionen
0
Punkte
1
Hallo PsychoHH,

nein hat leider nicht gebracht. Die Code-Stelle wird ja auch von einem "restore" Test eingeschlossen:
Code:
        if [ -z "$RESTORE" ]; then
#           if $CHECK_TEST -d $CHECK_PATH"$SOURCE"; then
#               echo "$SOURCE_DIR $SHARE erreichbar." >> $LOG
#           else
#               ERROR="$SOURCE_DIR $SHARE nicht erreichbar..." >> $LOG
#               FORERROR="1"
#           fi
        fi

und das gesamte Script scheint nun Schaden genommen zu haben:

Code:
+ SHARE_FIRST_ESCAPE=homes
+ IFS=' 	
'
+ '[' -z '' ']'
+ '[' 1 -eq 0 ']'
+ '[' 1 -eq 1 ']'
+ SOURCE=homes
+ ssh root@192.168.100.5 test '!' -d '/volume?/@homes@'
+ ssh root@192.168.100.5 test -d /volume1/homes
+ ssh root@192.168.100.5 test -d '/volume?/@homes@'
+ ssh root@192.168.100.5 test -d '/volume?/@homes@'
+ ssh root@192.168.100.5 test '!' -d '/volume?/@homes@'
+ ssh root@192.168.100.5 test '!' -d /volume1/homes
+ echo 'Quellordner homes konnte nicht gefunden werden'
+ '[' -z '' ']'
+ '[' -z '' ']'
+ '[' -n '' ']'
+ '[' -z '' ']'
+ '[' 1 -eq 0 ']'
+ '[' -z '' ']'
+ '[' 1 -eq 1 ']'

...

/volume1/NetBackup/rsync_Diskstation2.sh: line 861: syntax error near unexpected token `fi'
/volume1/NetBackup/rsync_Diskstation2.sh: line 861: `		fi'

Gruß Volkmar
 

PsychoHH

Benutzer
Mitglied seit
03. Jul 2013
Beiträge
2.967
Punkte für Reaktionen
4
Punkte
78
Sorry das Script hat keinen Schaden genommen. Gibt nur einen Fehler, da dort kein Befehl mehr ausgeführt wird. Kommentier mal oben das if und das fi mit aus. Oder Trag dazwischen mal einfach ein echo "" ein
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat