Ich bin mir sogar sehr sicher das es kein Synology-Problem ist.
Und dann fragst Du in einem Synology-Forum? ? Nah, alles gut?
Wenn ich nun Daten zwischen dem WD Book und der NAS transferiere habe ich nur eine Datenübertragungsrate zw. 30 und 50 MBit, allerdings erst seit ein paar Monaten vorher hatte ich immer über 100 MBit.
+
Bei Backups zwischen der NAS und einem WD Book welche direkt an der Synology hängt sind es wieder 100 MBit.
Das wäre 2x quasi die gleiche Konstellation (USB-HDD via Computer zu NAS). Ich frage jetzt als allererstes: Sicher, dass Du "Bit" meinst und nicht "Byte"? Wäre ein wenig untypisch für heutige Netzwerke, es sei denn, dass die Ports Deiner Fritzbox im Öko-Modus vor sich hindümpeln (und somit 10x langsamer laufen, als sie könnten). Ich gehe aber eher davon aus, dass Du die "Bytes" meinst und nicht die "Bits"
Zwischen einer Sicherung und einer Kopie bestehen eigentlich keine großen nennenswerten Unterschiede. Die Daten werden von A nach B geschaufelt in entsprechenden Formaten, mittels entsprechenden Protokollen. Sicherlich ist das ein oder andere Protokoll etwas performanter, aber solche drastischen Geschwindigkeitseinbußen sind da eher nicht zu erwarten.
Die Frage wäre jetzt natürlich, ob es immer die gleiche Art von Daten ist (z.B. große Filme, oder kleine Dokumente), denn das wäre so ein typisches Szenario... Du hast 10G an Daten in 2 Variationen:
1) Filmdateien, beide je 5GB, also 2 Dateien
2) Worddokumente, jedes knapp 500KB groß, macht in Summe also etwas mehr als 20.000 Dateien
Die Kommunikation beim Übertragen von Dateien kann man sich ungefähr so vorstellen:
"Ich hab hier was zum übertragen, kannste?"
"Jau, hau rüber!"
"Hier haste das erste kleine Päckchen"
"Hab ich!"
"Kannste auch mehr auf einmal?"
"Klar, hau rein!"
"Hier haste das nächste grössere Päckchen"
"Kannste auch noch mehr auf einmal?"
"Klar, hau rein!"
"Hier haste das nächste noch grössere Päckchen"
... irgendwann kommt dann auch ein...
"Uff, lass mal gut sein, noch mehr geht nicht, machen wir so weiter wie bisher!"
usw. ... das ganze dient quasi dem Geschwindigkeitsaufbau und funktioniert in einer rasenden Geschwindigkeit... (macht man z.B. so einen Speedtest im Internet, sieht man dort ganz gut, wie es langsamer anfängt und immer schneller wird, bis irgendwann das Maximum erreicht ist).
Wenn man sich das ganze jetzt einfach mal linienartig vorstellt, sieht es im Endeffekt so aus, dass man bei den großen Dateien zum Start eben diesen "Bogen" hat (die ansteigende Geschwindigkeit), danach folgt die Linie (recht weit oben) eben dem erreichbaren Maximum und am Ende fällt es wieder Steil ab ("Habe fertig, danke reicht!").
Bei kleinen Dateien ist jetzt das Problem, dass:
a) es sich i.d.R. garnicht so weit hochschaukeln kann, bis Du an das/Dein Bandbreiten-Limit kommst - sieht dann so aus:
"Ich hab hier was zum übertragen, kannste?"
"Jau, hau rüber!"
"Hier haste das erste kleine Päckchen"
"Hab ich!"
"Kannste auch mehr auf einmal?"
"Klar, hau rein!"
"Hier haste das nächste grössere Päckchen"
"Habe fertig, danke tschüss"
(... kommt also garnicht zu grösseren Päckchen, da die kleine Datei schon übertragen ist...)
b) Verursacht dieses ganze "blabla" zwischen den Teilnehmern auch einen gewissen Overhead (wenn man es ganz grob rechnet, spricht man gern von 10%)
Wir haben also eine "Anfangsphase" (viel blabla), eine "Mittelphase" (mittelmässig blabla) und eine "Abschlussphase" (wieder ein bisschen mehr blabla). Jetzt kann man sich schon vorstellen, dass sich der sogenannte Overhead (also das, was NICHT Teil der eigentlichen zu übertragenden Daten ist, eben das blabla) bei 2 großen Dateien natürlich schon extrem in Grenzen hält. Bei den vielen kleinen Dateien existiert natürlich jede Menge Overhead, da es für jede noch so winzige Datei immer das gleiche ist.
Ein gutes Beispiel dafür ist ein LKW oder ein Zug:
<Zugmaschine> <Inhalt> <End-was auch immer>
Packt man jetzt einen LKW oder einen Zug mit Waren voll, wunderbar - da flitzt direkt "einiges" durch die Gegend. Anders sieht es aus, wenn wir jetzt hingehen und diese zu transportierenden Waren auf 50 Autos aufteilen. Kannste im Prinzip 1:1 so übersetzen.
An dieser grundsätzlichen Thematik würde eben auch kein NAS-Tausch etwas ändern.
Allerdings wäre auch noch etwas anderes denkbar (da Du hier auch den "zeitlichen" Teil hervorhebst). Mitunter hat ein anderes Gerät im Netzwerk die gleiche IP-Adresse wie Dein System (bekommen), dann wäre es so, dass ständiger Paketverlust die Folge wäre und die Daten erneut gesendet werden müssten.
"Haste bekommen?"
"Ne, schick nochmal!"
Dadurch wäre natürlich ein extremer Abfall in der genutzten Bandbreite zu verzeichnen. Testen könntest Du sowas aber ganz einfach, indem Du z.B. über die Windows-Eingabeaufforderung mal einen Dauerping auf das NAS laufen lässt:
"ping -t <NAS-IP oder NAS-Name>"
Sollte es da nicht "dauerhaft" Antworten mit einer ms-Angabe geben, gehen auf der Strecke Pakete flöten. Dies kann auch durch z.B. ein defektes Kabel (oder Einstrahlungen auf ein Kabel) passieren, kurzum: Die Pakete kommen nicht so an, wie sie sollen. Selbiges kann Dir passieren, wenn z.B. einfach nur irgendwo ein Netzwerk-Stecker etwas "locker" sitzt (und somit nicht richtig = Wackelkontakt).
Also - das mit den großen/kleinen Dateien wirst Du sicherlich selbst am besten beurteilen können, alles andere: Runde gehen, Stecker drücken und ggf. mal die Kabel austauschen
