Moin!
ich habe fuer mein NAS einen Backup Task angelegt, der mir einmal täglich meine wichtigsten Ordner auf Synology C2 überträgt. Nun sind das größtenteils Daten, bei denen wenig Bewegung dein ist, also auch nicht viel Änderungen passieren. Theoretisch sollte also in den inkrementellen Backups wenig Daten hochgeladen werden.
dennoch werden jeden Tag ca 50 GB durch die Leitung geschoben. Das wirkt auf mich etwas zu viel (und dauert verhältnismäßig lang). Ivh denke der heisse Kandidat ist der shared folder Docker, in dem meine Container laufen. Da ändern sich natürlich Daten, und vermutlich lädt er dann immer den gesamten Ordner neu hoch. Gibt es da eine bessere Strategie, die aber auch Datensicherheit verspricht? Wie gehen andere damit um?
grüße
ich habe fuer mein NAS einen Backup Task angelegt, der mir einmal täglich meine wichtigsten Ordner auf Synology C2 überträgt. Nun sind das größtenteils Daten, bei denen wenig Bewegung dein ist, also auch nicht viel Änderungen passieren. Theoretisch sollte also in den inkrementellen Backups wenig Daten hochgeladen werden.
dennoch werden jeden Tag ca 50 GB durch die Leitung geschoben. Das wirkt auf mich etwas zu viel (und dauert verhältnismäßig lang). Ivh denke der heisse Kandidat ist der shared folder Docker, in dem meine Container laufen. Da ändern sich natürlich Daten, und vermutlich lädt er dann immer den gesamten Ordner neu hoch. Gibt es da eine bessere Strategie, die aber auch Datensicherheit verspricht? Wie gehen andere damit um?
grüße