HyperBackup quält die Sicherungsplatte (eigenartiges Verhalten)

Woolfgang359

Benutzer
Mitglied seit
17. Nov 2010
Beiträge
98
Punkte für Reaktionen
12
Punkte
8
Das System sichere ich separat. Ich verwende eine USB Platte (und keinen rsync Server) mit einem 3m USB-Kabel in einem feuerfesten Safe als primäre Sicherung für die freigegebenen Ordner. Mein Script schneidere ich daraufhin zu.
Das Problem von HyperBackup ist, vermute ich, der OverHead (Protokolleintrag nach jeder Datei) den es selbst verursacht und der ist mit einer anderen Kopiermethode nicht weg. Ich weiß nicht wie HyperBackup genau arbeitet aber der Schluß liegt nahe wenn man Post #10 ansieht.
Wenn jemand mit HyperBackup viele Kleinstdateien sichert und die Festplatte dabei nicht wie ein Maschinengewehr rattert bin ich der Erste den das interessieren würde. :) Ich habe allerdings keine Hoffnung mehr.
 
Zuletzt bearbeitet von einem Moderator:

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
9.022
Punkte für Reaktionen
1.217
Punkte
308
Also ich habe noch nie so was erlebt und habe zahlreiche Synos zu versorgen und alle machen Backup und sogar auf SMR Platten und keine hat in den vielen Jahren irgendein Schaden bekommen.

Meiner Meinung nach jagst einem Phantom nach.
 

Woolfgang359

Benutzer
Mitglied seit
17. Nov 2010
Beiträge
98
Punkte für Reaktionen
12
Punkte
8
Wenn man HyperBackup nicht aktiv kontrolliert, wird man nicht auf den Schwachpunkt drauf kommen. Ich habe das nur zufällig erkannt weil die DS224+ und die Sicherungsplatte beim Einrichten neben mir liegen. Und ehrlich gesagt ich mag auch nicht immer wieder Statements abgeben, denn es wurde alles gesagt, aber die Leute lesen sich die Beiträge doch nicht durch. (z.B. Antwort #16 und #10 und auch andere)
Bei 2,5MB/s Datendurchsatz und 1,5 Monaten Sicherungszeit jage ich einem Phantom nach?
Die Festplatte ist voll von SourceCode aus einer HTL, wo es tausende und abertausende Kleinstdateien gibt. Unzählige Testprogramme, dll's und Kompilierungen mit ein paar Zeilen Größe die man im Unterricht erstellt.
Jede Kopiermethode ist okay, nur eben HyperBackup nicht.
Ich mag mich nicht ständig wiederholen. Der Beitrag #16 und #10 und andere Beiträge zeigen klar das Problem auf welches HyperBackup mit vielen kleinen Dateien hat. Und irgendjemand hat hier auch geschrieben, dass das Problem bekannt ist und jetzt schreibst du, dass es ein Phantom ist.

Es geht nicht gegen dich persönlich, denn wenn wir uns kennen würden, vielleicht würden wir bei einem Bier zusammen sitzen und die Sache besprechen. Aber ich mache hier nichts anderes mehr als Kollegen welche den Beitrag überfliegen immer wieder zu sagen wo das Problem liegt und dass alle Zusammenhänge ordentlich geprüft wurden.
Es bringt nichts mehr. Denn es gibt hunderte Kollegen hier und ich muss bis in alle Ewigkeit das was schon geschrieben ist wiederholen. Ich erwarte auch nicht, dass jeder den gesamten Beitrag liest, aber der Beitrag ermüdet mich mittlerweile. Dazu bin ich zu lange in der IT Branche, dass ich weiß was Sache ist und wo leere Kilometer gefahren werden. :)

Danke jedenfalls an ALLE die sich hier zu Wort gemeldet haben.
Es versucht jeder zu helfen, das weiß ich zu schätzen.
Wir lesen uns wo anders wieder. :)
 
Zuletzt bearbeitet:

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
9.022
Punkte für Reaktionen
1.217
Punkte
308
Kopiermethode ist okay, nur eben HyperBackup nicht.
ich denke hier genau liegt das Missverständnis

Kopieren ≠ Backup


Das sind zwei verschiedene Welten. Backup kann nicht einfach etwas kopieren. Das würde die Anforderungen nicht erfüllen. Daten müssen sicher da sein wenn man sie braucht, es braucht Schutz gegen zufälliges überschreiben mit anderem Backup, es muss möglich sein nachfolgende Backups schnell durchzuführen und eine Möglichkeit zu Deduplizierung haben. Und vieles mehr.
Es gibt zwar immer noch Humoristen die meinen man kann beim nachvolgendem Backup doch alle Dateien einfach vergleichen und nur das speichern was nötig. Nur dies würde vermutlich extrem lange dauern. Deshalb werden die Dateien anders bewertet und gelistet, damit eben alles einfacher wird.
Es spielt keine Rolle wie gross Dateien sind, aber es müssen eben alle gleich vorbehandelt werden, sonst handelt es sich nicht um einen Backup Programm.


Also wenn du nur was kopieren möchtest, dann verwende bitte kene Backup Software. Wir haben bald 2025, da ist bei Backup von auf Floppy kopieren schon etwas passiert und es funktioniert heute anders. weil Ansprüche steigen.


Mach mit deinen kleine Dateien wirklich mal einen echten Backup und nicht nur eine Kopie. Ja , du musst *am Anfang* etwas Gedurld haben, es scheint alles sehr langsam zu sein, bessert sich aber bald.
Ich habe selber auch viele Versuche gemacht, mit externen Platten oder auf andere NAS. Egal, es geht immer ähnlich, braucht etwas Zeit bis alles läuft, dann geht es jedoch sehr schnell. Einfach etwas Geduld haben und nicht immer wenn es nur 2MB/s anzeigt gleich meinen das würde 1 Jahr dauern udn abbrechen.



Nun noch zu Platten werden gequält.
Das sind Platten die dafür so gebaut sind. Durch das etwas wackeln mit den Köpfen passier denen nichts. Nach 10 Jahren kann man die mit gutem Gewissen entsorgen, aber das ist ganz normal auch wenn die auch weiter laufen würden.
Das sind keine Platten bei denen man noch schnell auf Kommandozeile 'parkhead' abgeben muss bevor der Compi ausgeschaltet wird.
Wir haben hier würde ich sagen Dutzende externe Platten, auf die werden Backups gemacht, daily, weekly, monthly. Die halten gefühlt ewig, auch wenn sie hin und her transportiert werden, gelegentlich jemandem auf den Boden fallen etc.
Und auch diese Aussenstellen haben viele kleine Dateien, irgednwelche Text Schnippsel, xls mit 2 Zeilen oder so was.
Das alles funktioniert und der Bequemlichkeit wegen sind es meisten solche fertigen, eingeschweissten, SMR Platten.
(bei SMR kann alles ncohmals etwas langsamer gehen)


Also empfehle: entspann dich, lass den ersten Backup durchlaufen und dann hast du etwas brauchbares.
 
  • Like
Reaktionen: Kachelkaiser

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
14.148
Punkte für Reaktionen
6.150
Punkte
569
@Woolfgang359 Sorry, aber das ist Unsinn.
Hyper Backup versioniert, sichert zuerst alle Pakete und die Datenbanken, dies sind extreme viele und kleine Dateien, da "rattert" halt die HDD, das ist völlig normal und dafür wurden diese entwickelt und ausgelegt.
Edit: Deshalb ist am Anfang eines HB die Übertragungsgeschwindigkeit niedrig und wenn dann die größeren Dateien kommen, wird es schneller.
Du müsstest mal eine Datacenter HDD hören, wenn die 100.000 kleine Files schreibt.
Ich habe letztens eine neue Sicherung von 12 TB (knappe 30 Stunden) mit Paketen, Datenbanken, Containern, etc. laufen gehabt, das ging knappe 30 Stunden und ich kann dir mitteilen, allen HDDs geht es super.
 

Anhänge

  • 1735561399118.png
    1735561399118.png
    18,5 KB · Aufrufe: 5
Zuletzt bearbeitet:


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat