Hallo zusammen,
habe mich jetzt entschieden ein "High Availability Cluster" zu testen.
Das Thema scheint mir im Forum noch nicht sehr verbreitet (gibt auch keinen Bereich dafür), auch habe ich nirgends ausführliche Berichte von Leuten gefunden die das praktizieren, das Thema taucht eher mal in der Theorie in der Kaufberatung auf oder es werden vereinzelte Fragen gestellt aber meist nicht beantwortet.
Dieser Thread ist nun ein Versuch das Thema zu vertiefen und Praxiserfahrung auszutauschen, es wäre schön wenn möglichst viele Leute die sich damit befassen hier ab und zu mal reinschauen und ihren Senf dazu geben.
Vorab: Meine Gründe für ein HA-Cluster
Von allem hat man ein Backup, nur die Hardware wird meist vergessen.
Grundsätzlich bin ich immer dafür, dass man Hardware auf die man wesentliche Abläufe aufbaut doppelt haben sollte, denn wenn sie in einer zeitkritischen Phase kaputt geht braucht man sie nur wechseln und muss nicht unter Zeitdruck etwas Neues beschaffen und installieren. Das gilt mal ganz unabhängig davon, ob man mit HA-Cluster arbeiten will oder nicht.
Zweitens kann man zum Beispiel seine Installation auch mal auf dem Reservegerät in aller Ruhe neu aufbauen, und man kann damit herumexperimentieren ohne den Betrieb oder die Daten auf dem Hauptgerät zu gefährden.
Drittens können auch mal beide Geräte gleichzeitig genutzt werden (ok, das macht bei einem Notebook o.ä. mehr Sinn als bei einem Server).
Dummerweise habe ich zuerst zwei verschiedene DS beschafft, nun kommt aber aus diesen Gründen eine zweite DS1513+ hinzu, so dass die DS414 evtl. entbehrlich wird, mal sehen.
So weit so gut, zwei gleiche Geräte führen aus meiner Sicht noch nicht zwingend zu einem HA-Cluster, die Hochverfügbarkeit im Sinne des minutenschnellen Umschaltens brauche ich nicht. Wenn ich bei Ausfall einer DS die Platten in die andere umbauen kann dann würde mir das reichen, so eilig habe ich es auch wieder nicht.
Warum also HA-Cluster?
Was mich daran primär reizt ist das permanente Echtzeit-Backup der Daten auf eine zweite Station. Diese zweite Station kann im Gebäude anderswo stehen, an einer anderen USV hängen usw. Wenn also eine Station absaufen, abrauchen, abbrennen, abkotzen, abschmieren, abfackeln, abtauchen oder was auch immer sollte, egal warum, dann sind die kompletten Daten hochaktuell auf einer zweiten Station noch vorhanden.
Ja, ich weiß: Dies ist kein Ersatz für zeitlich und räumlich wirklich getrennte Backups, die werde ich weiterhin zyklisch anfertigen, wobei ich parallel 2 Methoden einsetzen will:
Die eine Methode besteht im rotierenden Herausnehmen und Austauschen vom RAID-Platten, so mache ich es bisher, damit habe ich Daten und DSM im Synology-Format gesichert.
Die andere Methode ist eine Kopie über USB oder eSATA auf NTFS. Bei dieser Methode erhoffe ich mir vom HA-Cluster ebenfalls einen weiteren entscheidenden Vorteil: Ich stelle mir das so vor:
Zwecks Backup wird das HA-Cluster getrennt, zu dem Zeitpunkt darf von extern kein Datenzugriff erfolgen, die Daten müssen konsistent sein. Nach der Trennung darf dann aber auf den aktiven Server sofort wieder zugegriffen und auch geschrieben werden, währenddessen wird das Backup vom passiven, abgetrennten Server erstellt.
Ist das Backup fertig, dann wird das HA-Cluster wieder gebunden, d.h. das System bringt dann den passiven Server wieder auf den neusten Stand.
Somit ist mein Hauptserver während des Backups voll aktiv und Daten dürfen geschrieben werden, ohne dass ich befürchten muss ein inkonsistentes Backup anzufertigen.
Das sind jetzt so meine Grundüberlegungen. Kommentare, Einwände, Fragen, Kritik und Gegenvorschläge sind willkommen.
Konkrete Fragen zum HA-Cluster habe ich auch noch:
- Inwieweit kann ich die Performance des Standby-Servers lesend nutzen?
- Müssen beide Server zwingend genau identisch installiert sein?
- Kann ich mit LACP ans Netz?
Versuchen werde ich das Ganze mal mit DSM 5.0.
habe mich jetzt entschieden ein "High Availability Cluster" zu testen.
Das Thema scheint mir im Forum noch nicht sehr verbreitet (gibt auch keinen Bereich dafür), auch habe ich nirgends ausführliche Berichte von Leuten gefunden die das praktizieren, das Thema taucht eher mal in der Theorie in der Kaufberatung auf oder es werden vereinzelte Fragen gestellt aber meist nicht beantwortet.
Dieser Thread ist nun ein Versuch das Thema zu vertiefen und Praxiserfahrung auszutauschen, es wäre schön wenn möglichst viele Leute die sich damit befassen hier ab und zu mal reinschauen und ihren Senf dazu geben.
Vorab: Meine Gründe für ein HA-Cluster
Von allem hat man ein Backup, nur die Hardware wird meist vergessen.
Grundsätzlich bin ich immer dafür, dass man Hardware auf die man wesentliche Abläufe aufbaut doppelt haben sollte, denn wenn sie in einer zeitkritischen Phase kaputt geht braucht man sie nur wechseln und muss nicht unter Zeitdruck etwas Neues beschaffen und installieren. Das gilt mal ganz unabhängig davon, ob man mit HA-Cluster arbeiten will oder nicht.
Zweitens kann man zum Beispiel seine Installation auch mal auf dem Reservegerät in aller Ruhe neu aufbauen, und man kann damit herumexperimentieren ohne den Betrieb oder die Daten auf dem Hauptgerät zu gefährden.
Drittens können auch mal beide Geräte gleichzeitig genutzt werden (ok, das macht bei einem Notebook o.ä. mehr Sinn als bei einem Server).
Dummerweise habe ich zuerst zwei verschiedene DS beschafft, nun kommt aber aus diesen Gründen eine zweite DS1513+ hinzu, so dass die DS414 evtl. entbehrlich wird, mal sehen.
So weit so gut, zwei gleiche Geräte führen aus meiner Sicht noch nicht zwingend zu einem HA-Cluster, die Hochverfügbarkeit im Sinne des minutenschnellen Umschaltens brauche ich nicht. Wenn ich bei Ausfall einer DS die Platten in die andere umbauen kann dann würde mir das reichen, so eilig habe ich es auch wieder nicht.
Warum also HA-Cluster?
Was mich daran primär reizt ist das permanente Echtzeit-Backup der Daten auf eine zweite Station. Diese zweite Station kann im Gebäude anderswo stehen, an einer anderen USV hängen usw. Wenn also eine Station absaufen, abrauchen, abbrennen, abkotzen, abschmieren, abfackeln, abtauchen oder was auch immer sollte, egal warum, dann sind die kompletten Daten hochaktuell auf einer zweiten Station noch vorhanden.
Ja, ich weiß: Dies ist kein Ersatz für zeitlich und räumlich wirklich getrennte Backups, die werde ich weiterhin zyklisch anfertigen, wobei ich parallel 2 Methoden einsetzen will:
Die eine Methode besteht im rotierenden Herausnehmen und Austauschen vom RAID-Platten, so mache ich es bisher, damit habe ich Daten und DSM im Synology-Format gesichert.
Die andere Methode ist eine Kopie über USB oder eSATA auf NTFS. Bei dieser Methode erhoffe ich mir vom HA-Cluster ebenfalls einen weiteren entscheidenden Vorteil: Ich stelle mir das so vor:
Zwecks Backup wird das HA-Cluster getrennt, zu dem Zeitpunkt darf von extern kein Datenzugriff erfolgen, die Daten müssen konsistent sein. Nach der Trennung darf dann aber auf den aktiven Server sofort wieder zugegriffen und auch geschrieben werden, währenddessen wird das Backup vom passiven, abgetrennten Server erstellt.
Ist das Backup fertig, dann wird das HA-Cluster wieder gebunden, d.h. das System bringt dann den passiven Server wieder auf den neusten Stand.
Somit ist mein Hauptserver während des Backups voll aktiv und Daten dürfen geschrieben werden, ohne dass ich befürchten muss ein inkonsistentes Backup anzufertigen.
Das sind jetzt so meine Grundüberlegungen. Kommentare, Einwände, Fragen, Kritik und Gegenvorschläge sind willkommen.
Konkrete Fragen zum HA-Cluster habe ich auch noch:
- Inwieweit kann ich die Performance des Standby-Servers lesend nutzen?
- Müssen beide Server zwingend genau identisch installiert sein?
- Kann ich mit LACP ans Netz?
Versuchen werde ich das Ganze mal mit DSM 5.0.
Zuletzt bearbeitet: