Vielen Dank für die Blumen *verbeug*!
Es freut mich, wenn ich Euch mit der ursprünglich als Spielerei angedachten Entwicklung eine Freude bereiten bzw. einen Alltags-Nutzen stiften konnte. Ich fänds auch weiterhin schön, wenn ihr mir sagen könntet ob ihr zwischendurch Abbrüche habt und wenn ja wie oft und wobei, damit ich dadurch auch einen Input für mögliche Verbesserungen habe.
Eine generelle Empfehlung (auch bei Problemen) von meiner Seite aus ist die Anzahl gleichzeitiger Downloads nicht zu hoch anzusetzen. Ich lade z.B. immer nur 2 Dateien gleichzeitig. Gerade bei den mittlerweile 1GB großen Files bei SO kann man so einen Timeout bzw. Verbindunsverlust, der zu einem unvollständigen bzw. Download mit "krummer" Größe führt besser verkraften, denn dann sind nur 2 Files für die Füße und nicht bspw. 7 oder 10 auf einen Schlag. Ausserdem startet jeder Download einen eigenen wget Prozess, der selbstverständlich Prozessor-Leistung konsumiert und damit die Diskstation etwas ausbremst. Und da der Download aufgrund der limitierten Bandbreite des Providers ohnehin nicht schneller läuft als er braucht, kann man die DS dadurch auch getrost ein wenig schonen.
Das ist eine Sache (also Schonen), die ich bei Pyload auch vermisst habe denn während aktiv runtergeladen wird frisst der Python-Prozess mal eben leckere knapp 100% CPU Leistung (bei mir zumindest). Hab mich nämlich damals gewundert warum ich nach einer guten halben Stunde nachdem ich das Entpacken von einem 2GB großen File gestartet habe gerade einmal bei 20% war. War allerdings kein Wunder wenn die CPU gerade "Wichtigeres" zu tun hat