Strategie Backup & Totalausfall primäres NAS mit redundantem sekundärem NAS

sugarDaddy

Benutzer
Mitglied seit
13. Sep 2021
Beiträge
64
Punkte für Reaktionen
1
Punkte
14
Hallo liebe Gemeinschaft,

ich werde für ein kleines Unternehmen die IT neu aufbauen, und würde gerne auf Synology setzen. Habe aber noch 1-2 Fragen zur richtigen Umsetzung. Daher skizziere ich kurz was ich mir bislang ausgedacht habe, und werde dann meine Fragen stellen. Auch über generelle Kritik an meinen Überlegungen würde ich mich freuen.

Angedachter Aufbau:

- Ein primäres Synology NAS steht im Unternehmen und stellt dort folgende Dienste bereit
-- Einen MSSQL Express Server via Docker solange sie noch auf ihr altes CRM setzen (/docker/mssql)
-- Das NAS für alle 15 Office-Windows-Rechner (/homes)
-- ggf. pihole (/docker/pihole)
-- ggf. surveillance (/surveillance)
-- ggf. ABB (/abb)

An einem weiteren Standort steht das baugleiche sekundäre NAS (Typ und Datenträger) und wird per HyperBackup regelmäßig mit allen obigen volumes beliefert. So muss ich nichts in die Cloud schieben. Cloud wäre auch ok. Aber da nun ein zweites NAS existiert, könnte ich beim Totalausfall des primären NAS das sekundäre binnen Stunden zu einem Klon des ersten machen und wieder in Betrieb nehmen.

Ich spiele bereits mit zwei DS216+II in meinem Büro herum, und baue dieses Setup testweise auf. Sehe auch das .hbk file auf dem sekundären System, kann die Daten mounten etc. Ausserdem kann ich auf dem primären NAS die Daten vom sekundären restoren.

Meine Fragen:

- Es sieht so aus, also müsste ich auf dem sekundären NAS nach dem mounten der .hbk manuell die einzelnen shared-folder auf entsprechende selbst erstellte folders verteilen. Es gibt also kein "Repliziere das ganze System in dieser .hbk auf diesem System".
- Noch dazu müsste ich ja auch die gesamten Nutzer, Konfiguration, Docker-Konfiguration, etc. erstmal ins backups mit reinnehmen und auf dem sekundären System manuell wieder einrichten. Lassen sich Teile davon, oder das alles auch via HypberBackup (oder anders) realisieren?
- Bin ich generell auf dem richtigen Weg, oder vollkommen auf dem Holzweg?

Vielen Dank und Grüße
 
Zuletzt bearbeitet:

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
6.057
Punkte für Reaktionen
1.855
Punkte
254
Nach dem Lesen stelle ich mir (dir) (oder deinem Chef) vorerst folgende Fragen:
  • Was kostet bei 15 Mitarbeitern ein Ausfall von einer Stunde?
  • Was kostet bei 15 Mitarbeitern ein Ausfall von einem Tag?
Und das alles will man von einer DS216+ abhängig machen, die 15 Windowsrechner mit Daten versorgt, die DB für das CRM verwaltet, den DNS-Dienst bereitstellt, ABB vorhält und das Auffangbecken für alle Überwachungskameras ist?

Wenn dein Chef mal die Kosten für einen Ausfall überschlägt, vielleicht will er dann mal ein Systemhaus befragen, ob man ihm da professionell behilflich sein kann.

Noch ein paar kleine Gedanken um das "Drumherum":
DNS-Dienst:
Ein Pi-hole ist löblich. Dennoch würde ich das auslagern (ganz kleiner Linuxrechner) und auch doppelt vorhalten (Clientrechner kennen zwei DNS-Server). Ein Ausfall vom DNS-Dienst ist so nur noch schwer möglich.
Hierbei ist noch folgendes zu beachten: Dürfen die Mitarbeiter auch mal privat surfen? Siehe Datenschutzverordnung. Pi-hole loggt in der Standardeinstellung alle Domains und Clienten. Frau Mayer vom Empfang besucht Brustvergrößerungsseiten, Herr Schmidt vom Lager wiederum hat Potenzprobleme und Frau Guck schaut bei der Konkurrenz nach einer neuen Arbeitsstelle.

Überwachungskameras:
Auch das würde ich vom Haupt-NAS fernhalten. Gründe: Die Last auf die Speichermedien. Kameras schreiben unentwegt auf die HDDs. Das verlangsamt das System und damit den Zugriff anderer Dienste (15 Mitarbeiter, CRM, DB).
Lösung: ein Extra-NAS, Größe je nach Anzahl der Kameras, bei 1-2 Kameras reicht auch eine DS118.

Spannungsversorgung:
Schon mal Gedanken bezüglich eines Stromausfalls gemacht?
 

sugarDaddy

Benutzer
Mitglied seit
13. Sep 2021
Beiträge
64
Punkte für Reaktionen
1
Punkte
14
Hallo @peterhoffmann, vielen Dank für Deine Antworten!

Zu Deinen Punkten:
  • Die beiden DS216+II sind meine Systeme mit denen ich exemplarisch ein Setup als proof of concept aufbaue. Für den Kunden werden Geräte entsprechend seines Bedarfs angeschafft. Zeitgleich operieren etwa 15 Clients mit der Express-Datenbank. Und nur maximal 10 arbeiten gleichzeitig auf dem Dokumenten-Server (leichte Office-Geschichten).
  • USV ist natürlich bedacht und eingeplant; ich habe um die Frage nicht zu ausufernd werden zu lassen nur die Komponenten erwähnt die für meine eigentliche Fragestellung relevant sind.
  • Natürlich lässt sich pihole auch auf einem dezidierten Gerät betreiben, beispielweise ein Raspberry Pi. Oder auf zweien. Ein Ausfall des eigenen DNS wäre aber auch kein Beinbruch. Ich habe pihole eher erwähnt, um zu verdeutlichen, dass ich möglichst viele Dienste auf dem NAS laufen lassen möchte anstatt jeweils weitere Hardware einzusetzen. Aber danke für den Hinweis.
  • Danke für den richtigen Hinweis bzgl. Datenschutz und pihole.
  • Ob Überwachungskameras eingesetzt werden sollen ist noch gänzlich unklar. Allerdings hast Du Recht, dass diese eine Hohe Last verursachen. Wenn allerdings die LAN-Anbindung sowie die CPU- und RAM-Ressourcen der NAS dies noch locker abdecken, verstehe ich das Argument der Trennung nicht. Kaputte Festplatten müssen in jedem Fall gewechselt werden.
  • Auch ob ABB eingesetzt wird ist noch unklar. Auf den Arbeitsplatz-Rechnern liegen keine für das Geschäft relevanten Daten.
  • Generell würde ich eher ungern das Geschäft meines Klienten näher beschreiben. Aber im Kern steht und fällt sein Geschäft mit der Erreichbarkeit des MSSQL-Servers auf dem NAS von Office- und Hallen-PCs aus. Gleichzeitig verursacht dieser minimal Datenverkehr und nur mäßig Last auf dem NAS. Die anderen genannten Dienste sind für das akute Geschäft alle nachrangig. Allerdings wären sie, wie oben besprochen, teils Last-intensiv (mehr jedenfalls als der Express-Server).
    Zu Deinen Fragen welche Ausfallzeit welchen Schaden verursacht. Es gilt in jedem Fall die Ausfallzeit zu minimieren, alles über 30 Minuten ruiniert das Geschäft für den ganzen Tag, und wirkt sich negativ in die Folgetage der Woche hinein aus. Daher das redundante NAS. Ob man jedem Dienst seine eigene Hardware zuordnet scheint mir eher eine philosophische Frage zu sein. Ich verstehe also nicht, worauf Deine Frage abzielte? Also bei welcher Antwort Du ein alternatives Setup vorschlägst?
  • Bzw. wie würde den ein "Systemhaus" in abweichender Form an die Sache heran gehen?

Meine Kern-Frage bleibt bestehen:
  • ich müsste die folders aus der .hbk manuell auf dem sekundären NAS verteilen, die Geräte- und Docker-Konfiguration ebenso manuell einrichten?
  • oder gibt es ein "Spiegele das komplette NAS"-Feature?

Danke und Gruß
 
Zuletzt bearbeitet:

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
6.057
Punkte für Reaktionen
1.855
Punkte
254
  • Like
Reaktionen: sugarDaddy

manu_syn

Benutzer
Mitglied seit
05. Mai 2019
Beiträge
22
Punkte für Reaktionen
4
Punkte
3
Schau mal in der Synology knowledgebase nach Synology High availability (SHA). Das ist wohl eher das was du brauchst / suchst.

Statt hyper Backup kannst du dir auch Mal die Infoseiten zu Synology snapshot replication anschauen.

Viel Erfolg
 
  • Like
Reaktionen: sugarDaddy

sugarDaddy

Benutzer
Mitglied seit
13. Sep 2021
Beiträge
64
Punkte für Reaktionen
1
Punkte
14
Danke.
Ich glaube das wäre in diesem Szenario mit Kanonen auf Amöben schießen :D

Aber stimmt schon, siehe https://www.synology.com/de-de/dsm/feature/high_availability (danke @manu_syn). Ich könnte das zweite Gerät im Betrieb aufstellen und hätte ein HAC. Bei einem Brand, Einbruch oder Einsturz im Serverraum Betrieb wären allerdings beide Geräte dahin. Und bis Ersatz da ist, vergehen ein paar Tage.

Gegebenenfalls lässt sich per VPN das remote-Gerät mit in den Cluster integrieren. Allerdings sehe ich Bandbreite und Latenzen als Problem.
UPDATE: Ja, das ist eher nicht machbar.

----------
UPDATE: oh lauter Antworten, danke. Ich arbeite mich mal ein:

Synology High Availability - https://kb.synology.com/de-de/DSM/help/HighAvailability/HAManager_desc" - danke, @synfor
Synology Snapshot Replication - https://www.synology.com/de-de/dsm/feature/snapshot_replication - danke, @manu_syn


----------
UPDATE 2:
Also was "Snapshot Replication" angeht, ich habe den Eindruck es geht eher um verteilte und synchrone Datenhaltung in kurzen Intervallen. Und auf Dateiebene. Mit HyperBackup habe ich die Daten auf dem remote-System eben so aktuell wie ich häufig Backups mache. Das sollte schon passen.

Es ist in jedem Fall keine Lösung für "Das Problem", dass ich im Falle des dauerhaften Ausfalls vom primären NAS, das sekundäre NAS erstmal "herrichten" muss. Also das backup (.hbk) entpacken, Nutzer einrichten, Docker einrichten, etc. - und das alles manuell.
 
Zuletzt bearbeitet:

Stationary

Benutzer
Sehr erfahren
Mitglied seit
13. Feb 2017
Beiträge
3.948
Punkte für Reaktionen
1.268
Punkte
194
Zu Deinen Fragen welche Ausfallzeit welchen Schaden verursacht. Es gilt in jedem Fall die Ausfallzeit zu minimieren, alles über 30 Minuten ruiniert das Geschäft für den ganzen Tag
Ich glaube, die Frage von @peterhoffmann zielte darauf ab, die Kosten zu überschlagen und dann ein professionelles Systemhaus damit zu betrauen, anstatt sich die Strategien in einem Forum von Heimadministratoren zusammenschustern zu lassen ?
Das Systemhaus kommt dann wohl günstiger.
 
  • Like
Reaktionen: peterhoffmann

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
6.057
Punkte für Reaktionen
1.855
Punkte
254
Du darfst dir max. 30min Ausfall leisten, damit die Tagesleistung und Wochenleistung von 15 Mitarbeitern erhalten bleibt.

Rechnen wir doch mal:
15 Mitarbeiter x 50 Euro x 8 Stunden x 5 Tage = ca. 30.000 Euro

Auf der anderen Seite ist dir das zweite Gerät im Serverraum finanziell schon ein Kanonen auf Amöben schießen. Logik sieht anders aus.

Zu den 30min:
Eine Reaktion (und Lösung!) auf den Ausfall kann durch einen Menschen gar nicht gewährleistet werden. Daher muss ein Automatismus wie ein HA-Cluster her.

HA-Cluster:
Neben den beiden Geräten im Serverraum brauchst du zusätzlich auch eine ordentliche Backupstrategie. Die zwei Geräte bzw. der passive Server im Serverraum sind nicht als Backup anzusehen. Das ist im Grunde ähnlich wie mit einem Raid1.
 
Zuletzt bearbeitet:

sugarDaddy

Benutzer
Mitglied seit
13. Sep 2021
Beiträge
64
Punkte für Reaktionen
1
Punkte
14
Also vorab erstmal danke zur Beantwortung meiner Frage, ob ich einen Mechanismus übersehen habe, mit dem ein (Hyper) Backup auf einem redundanten offsite-NAS schneller bzw. weitgehend automatisiert das primäre 1:1 wiederhergestellt werden kann.

@peterhoffmann Ich danke für Deine Überlegungen, alles richtig. Allerdings weiss ich nicht wirklich konkret wieviel Zeit Ausfall zu welchem Schaden führt. Ein Punkt, den zu ermitteln es gilt. Allerdings ein Thema für sich, dem man sich im Falle der Notwendigkeit durchaus mit HA nähern kann.

Mir ging es allerdings darum, wie ich ein Reserve-Gerät in möglichst kurzer Zeit aus einem Backup heraus in den letzten funktionierenden Zustand des Erstgeräts versetzen kann. Daher die Frage. Allerdings hätte ich sie gleich von Anfang in in dieser Form formulieren sollen.
 

manu_syn

Benutzer
Mitglied seit
05. Mai 2019
Beiträge
22
Punkte für Reaktionen
4
Punkte
3
Vergiss Mal das mit dem hyperbackup. Wenn du da ein paar mehr Daten hast dann dauert das entpacken schon länger als dir lieb sein wird.

Bei 30mim Reaktionszeit kommst du um ein High availability setup nicht drum rum und ja du brauchst dann auch noch ein echtes Backup lokal getrennt wie schön von Peter Hoffmann beschrieben.

Wenn die Bude runterbrennt wird man dir sicher mehr als 30min für die Systemwiederherstellung geben ;) Hier sollte dann ein normales Backup reichen.
 

sugarDaddy

Benutzer
Mitglied seit
13. Sep 2021
Beiträge
64
Punkte für Reaktionen
1
Punkte
14
Ich sag' ja nicht das @peterhoffmann irgendwo falsch läge. Wir reden nur mittlerweile mehr um ein ganz anderes Thema als (von mir) ursprünglich gedacht. :) Und die 30 Minuten, die habe ich so gewürfelt. Die sind jetzt nur mäßig belastbar. Dennoch, danke für die Einblicke.

Vergiss Mal das mit dem hyperbackup. Wenn du da ein paar mehr Daten hast dann dauert das entpacken schon länger als dir lieb sein wird.
Du rätst mir also von der Nutzung von Hyper Backup ab? Wie dann backups machen? (Ich werde, wie Du richtig festgestellt hast, im Falle eines Falles mehr als 30 Minuten zum Entpacken haben.)
 

manu_syn

Benutzer
Mitglied seit
05. Mai 2019
Beiträge
22
Punkte für Reaktionen
4
Punkte
3
Für das Backup auf einem Lokal getrennten NAS würde ich snapshot replication verwenden da ein snapshot viel schneller erstellt und wiederhergestellt ist.
Alternativ auch hyperbackup, falls du dich damit wohler fühlst.
Schau dir Mal beides an und probier Mal ein wenig aus was passiert wenn du 1-2 TB Daten wiederherzustellst... damit du ein Gefühl davon bekommst.

Für die Ausfallsicherheit ist es ganz klar eben SHA. Naturlich sind das in summe 3 Geräte aber bei einem Business usecase wie deinem kann man die Geräte steuerlich abschreiben und hat im Falle eines Ausfalls einer Diskstation/Rackstation keinen Betrieb der nicht mehr läuft oder einen IT Admin der dann genau im Urlaub ist wenn die Diskstation abraucht.
 
  • Like
Reaktionen: sugarDaddy

Ulfhednir

Benutzer
Sehr erfahren
Mitglied seit
26. Aug 2013
Beiträge
3.476
Punkte für Reaktionen
1.087
Punkte
194
Wer schon einmal eine Wiederherstellung mittels Hyperbackup vorgenommen hat, weiß dass man keine Reaktionszeit von 30 Minuten hinbekommt.
Wo wir dann wiederum beim Thema HA-Cluster wären. Aber möglicherweise wird auch keine Komplettwiederherstellung benötigt, sondern es reicht für den Moment eine Minimalkonfiguration. Hier müsste man sich zunächst kritisch mit der Frage auseinandersetzen: Wo liegt der eigentliche Pain? Welche Dienste und Dateien sind unabdingbar, d.h. betriebsverhindernd und welche sind in abgeschwächter Form "nur" störend.

Mit einer partiellen Wiederherstellung könnte man jedenfalls die Reaktionszeit drücken. Für den SQL-Server benötigst du im Kern ja nur die .mdf/.ldf bzw. die .bak-File. Das Docker-Image kann man vorbereiten, bzw. der Container ist schnell initialisiert. Da du von einer Express-Variante sprichst ist die Datenbankgröße faktisch auch überschaubar < 10GB. Wobei sich eine Sache mir noch nicht erschließt:
-- Einen MSSQL Express Server via Docker solange sie noch auf ihr altes CRM setzen (/docker/mssql)
Das Ganze ist ja nur die Datenbank. Welches CRM steckt denn dahinter und wo läuft das CRM? Greift der zweite Standort ebenfalls auf die Daten zu?
Wenn es kein zentralen Service gibt, wie stellst du sicher, dass clientseitig die korrekte Konfiguration bei Ausfall eingestellt ist? D.h. die korrekte SQL-Server-Instanz hinterlegt.

P.S.: Auch MSSQL bietet Failover-Cluster an. Allerdings erst ab der Standard-Edition. Wird aber im Vergleich zu HA-Cluster von Synology nicht unbedingt günstiger. Und überhaupt würde ich einmal eruieren, ob für den SQL-Server nicht auch Azure in Frage käme.
 

sugarDaddy

Benutzer
Mitglied seit
13. Sep 2021
Beiträge
64
Punkte für Reaktionen
1
Punkte
14
Welches CRM steckt denn dahinter und wo läuft das CRM? Greift der zweite Standort ebenfalls auf die Daten zu?
Das CRM/Warenwirtschaft ist selbstgeschraddelt (nicht von mir) und besteht aus einem ACCESS-Interface für den einen Typ Arbeitsplatz und einem VB-Interface für den anderen. Diese Anwendungen werden beim Start mit der Adresse des Express-Servers gefüttert.
Wir dürfen das Thema Hochverfügbarkeit in diesem Falle nicht überhöhen. Das ist grunde eine analoge Firma die überhaupt nur wiederwillig Computer einsetzt. Ein Blick in den jetzigen "Serverraum" würde hier hohe Wellen schlagen. Das heißt natürlich nicht, dass man es künftig nicht besser oder gleich richtig machen sollte. ;)

Der zweite Standort ist kein Standort der Firma, dort arbeitet niemand. Es ist ein NAS, dass beim Chef der Firma zuhause steht.

Und korrekt, das Minimum wäre /backup/docker/mssql zu entpacken, bzw. /docker/mssql neu aufzusetzen und mit nem sql-backup zu füttern. Ab dann wären sämtliche Clients wieder imstande an die Daten (max. 10 GB; vom letzten Backup-Zeitpunkt/replicated snapshot) zu kommen.

Ah, nochwas. Das Firmengebäude ist schlecht ans Internet angebunden. Kupfer mit max. 6Mbit/s, Glasfaser gibts nicht. Ich werde für Hybrid LTE plädieren, bzw. Starlink dazuschalten wollen. Ob das geht, wird Einfluss auf HyperBackup, Snapshot Replication bzw. DB in Cloud haben.
 

Ulfhednir

Benutzer
Sehr erfahren
Mitglied seit
26. Aug 2013
Beiträge
3.476
Punkte für Reaktionen
1.087
Punkte
194
Und korrekt, das Minimum wäre /backup/docker/mssql zu entpacken, bzw. /docker/mssql neu aufzusetzen und mit nem sql-backup zu füttern. Ab dann wären sämtliche Clients wieder imstande an die Daten (max. 10 GB; vom letzten Backup-Zeitpunkt/replicated snapshot) zu kommen.
Wobei ich dann im absoluten Notfall kein NAS benötige, sondern den SQL-Server auf einem der Office-PCs installieren könnte.
Sicherung der Datenbank und wichtigen Files auf USB-Stick auf eine externe Festplatte und dann an einem der Office-PCs eingebunden.
Das Backup wäre mit einem vorgefertigtem sqlcmd oder Powershell schnell eingebunden.

Ansatz wäre dann: USB-Stick nehmen; Rechner anschmeißen, USB-Stick einbinden und Notfallskript starten.
 

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
6.057
Punkte für Reaktionen
1.855
Punkte
254
die 30 Minuten, die habe ich so gewürfelt.
Es ist doch egal, ob es nun 30, 60 oder 120 Minuten sind.
In dieser Zeit bewältigst du einen Großteil der möglichen Szenarien nicht. Auch möchtest du mal Urlaub machen, bist mal krank oder für die Firma unterwegs.

Und wenn du die 30min schon gewürfelt hast, was muss man noch alles anzweifeln?!

Schaffe doch erst mal klare Fakten, wenn du eine gute Einschätzung und Hilfe willst.

Was spricht eigentlich gegen einen HA-Cluster? Dafür sind zwei DS720+ oder DS920+ nötig. Dazu noch (mindestens) eine weitere DS für das Backup. Ich spreche hier von insgesamt circa drei bis viertausend Euro (je nach Größe der HDDs).

Reicht dafür das Budget nicht?

Falls nicht und die beiden DS216+ herhalten müssen:
Vom Komfort muss man Abstriche machen.
Ich würde beide Geräte in der Firma aufstellen. Gerät A ist das Hauptgerät, stellt alle Dienste bereit. Gerät B zieht regelmäßig Backups. Wie du dann im Notfall den Zugriff auf das Gerät B gestaltest, musst du nach den Gegebenheiten entscheiden. Beim Chef zuhause würde ich dann ein kleines Drittgerät (z.B. DS220j) bereitstellen und das Backup z.B. jede Nacht oder jede zweite Nacht dort hinschieben.
 
Zuletzt bearbeitet:

sugarDaddy

Benutzer
Mitglied seit
13. Sep 2021
Beiträge
64
Punkte für Reaktionen
1
Punkte
14
Was spricht eigentlich gegen einen HA-Cluster? Dafür sind zwei DS720+ oder DS920+ nötig.
Dagegen spricht gar nichts. Wäre tatsächlich sogar gut. Das liegt dann im Ermessen des Kunden, für welches Szenario er wie gut vorbereitet sein möchte. Ist natürlich mein Job ihm jedes Szenario vorzustellen/-zurechnen.

Also ist ein Szenario die availabilty inhouse zu erhöhen. Das deckt ab:
- kurzfristige Ausfälle weil z.B. eines von zwei Geräten defekt ist
- kurzfristige Ausfälle weil die Software (nur?) auf einem von beiden rumzickt?
- welche Probleme könnte es denn noch geben, die so ein Fall abdeckt? Ohne Spaß, mir fällt nicht viel mehr ein. Wo sollte das eine Gerät Probleme machen, die das andere nicht macht?

Das andere Szenario mit redundantem off-site Gerät deckt ab:
- bei schlimmem inhouse-Vorfall, kurzfristige Wiederherstellung aller Dienste auf gewohntem Gerät (natürlich angenommen das Netzwerk, dessen Komponenten bzw. das ganze Gebäude haben nicht zu großen Schaden genommen)

Und wie @Ulfhednir richtig schreibt, natürlich krieg ich jederzeit kurzfristig nen' Express-Server mit dem letzten Backup ins Netz. Doch statt den Aufzusetzen und so und soviel Tage warte bis der Ersatz-NAS samt Platten kommt (und solange auf die anderen Dienste zu verzichten), um den erneut neu aufzusetzen, wär's ja geil der Ersatz stünde schon beim Chef. Ich gebe allerdings zu, dass ein potentes NAS welches beim Chef nur 1 mal in der Nacht ein Backup empfängt etwas unterfordert ist. Bis zum Fall des Falles.

Mein Zwischenfazit:
- HAC abklären
- Snapshot Replication anschauen
- nochmal die genauen Rahmenbedingungen eruieren und sortieren (Ausfallzeiten, Ausfall-Services, Schaden, etc.)
- dann daraufhin verschiedene Strategien evaluieren

Dann würde ich mich nochmal melden.
Vielen Dank allerseits
 

kais2021

Benutzer
Mitglied seit
30. Sep 2021
Beiträge
1
Punkte für Reaktionen
1
Punkte
1
Schau Dir vielleicht für Deine NAS Verzeichnis das an:

https://kb.synology.com/de-de/DSM/help/SynologyDrive/drive_sharesync?version=6

Ich habe einen ähnlichen Anwendungsfall wie Du und habe es im Einsatz: Ein 2. Synology Gerät steht an einem 2. mittels VPN verbundenem Standort. Dort habe ich identische Shares die mittels Sharesync synchron gehalten werden.

Weiterhin Hyperbackup jede Nacht aller Laufwerke +DB lokal und auf das 2. Synology.

Für DB Dumps:
https://www.synology-forum.de/threads/automysqlbackup-mariadb-10.114042/#post-934502

Wöchentlich ein Backup von allem mittels Hyperbackup (verschlüsselt) in die StratoCloud..

Zusätzlich noch "Active Backup for Business" für einige Server und die Mitarbeiter Arbeitsplätze..

Und den guten alten "Papierkorb" natürlich auch aktiviert ;-)


Grüße,
Kai
 
  • Like
Reaktionen: sugarDaddy


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat