- Mitglied seit
- 17. Dez 2014
- Beiträge
- 6.057
- Punkte für Reaktionen
- 1.855
- Punkte
- 254
Hallo,
ich war nie ein großer Freund von Docker, nun habe ich aber doch 2-3 Container durchweg am Laufen. Ja, ist schon ganz nett. Vielleicht gewöhne ich mich noch dran. ;-)
Nun würde ich gerne alles über ein Script immer wieder mal sichern lassen.
Vorweg, es gibt (wohl) drei Arten von Daten:
Der muss (in der Regel) nicht gesichert werden.
Einstellungen:
Hier habe ich im Forum ein nettes Script gefunden, welches wunderbar funktioniert und für jeden Container ein json-File anlegt.
Thread => https://www.synology-forum.de/threa...r-export-config-json-files-via-skript.108440/
gemappte Verzeichnisse:
Hier kann ich über die Konsole alles taren, zippen und wegpacken. Aber ein wenig Sorge macht mir das bei Containern, die mit einer DB laufen.
Wäre es nicht besser den Container anzuhalten, alles zu sichern, dann den Container wieder zu starten?
Habe ich irgendwas übersehen?
ich war nie ein großer Freund von Docker, nun habe ich aber doch 2-3 Container durchweg am Laufen. Ja, ist schon ganz nett. Vielleicht gewöhne ich mich noch dran. ;-)
Nun würde ich gerne alles über ein Script immer wieder mal sichern lassen.
Vorweg, es gibt (wohl) drei Arten von Daten:
- Container
- Einstellungen
- gemappte Verzeichnisse (z.B. in
/volumeX/docker/containername
)
Der muss (in der Regel) nicht gesichert werden.
Einstellungen:
Hier habe ich im Forum ein nettes Script gefunden, welches wunderbar funktioniert und für jeden Container ein json-File anlegt.
Thread => https://www.synology-forum.de/threa...r-export-config-json-files-via-skript.108440/
gemappte Verzeichnisse:
Hier kann ich über die Konsole alles taren, zippen und wegpacken. Aber ein wenig Sorge macht mir das bei Containern, die mit einer DB laufen.
Wäre es nicht besser den Container anzuhalten, alles zu sichern, dann den Container wieder zu starten?
Habe ich irgendwas übersehen?