- Mitglied seit
- 28. Dez 2013
- Beiträge
- 98
- Punkte für Reaktionen
- 6
- Punkte
- 8
Moin,
meine 1813+ ist recht voll geworden, von 23,x TB ist nur noch ca. 1 TB frei. Ich weiß auch, woran das liegt, etwas euphorische Aktivität um das Stichwort nzb-Datei, also Usenet-Goodies im Überfluß.
Nun gibt es ja im Speicher-Analysator die Möglichkeit der Duplikat-Kandidatensuche. Konfiguration etc. war alles kein Problem, nach etwas mehr als 3 Tagen schickte mir die DS dann auch "mit freundlichen Grüßen" einen Link auf den Ergebnisreport. Hmm, ja, vom PC aus aufgerufen, Firefox (50.2 auf Win7 pro) findet was - und verbiestert dann mit einer weiß bleibenden Seite.
Also mal direkt auf der DS nachgesehen, da fand ich natürlich die Ergebnisdateien. Ein Versuch, report.html lokal auf der DS zu laden, wurde dann aber mit dem Hinweis quittiert, daß der Editor nur für Sources bis 10 MB gut sei, und die 22 MB würden ihn dann doch überfordern.
Arrrg.
Die analyzer.db-Datei ist 9.6 GB groß, report.html 22 MB, duplicates.csv dekomprimiert > 40 MB. Letztere läßt sich aber in Excel öffnen, da zeigen sich 99.864 Eintragszeilen mit sehr plausiblem Inhalt, überwiegend Dublettem, seltener Tripletts oder höher.
Alles toll, nur bleibt mir damit bislang noch das Werkzeug der zwar immer noch mühsamen, aber doch direkt zum Ziel führenden Bereinigung über das Speicher-Analysator-Werkzeug versperrt.
Wie lösen? Da die Dubletten zum nicht geringen Teil volumeweit gestreut liegen, ist eine fraktionierte Analyse (also verzeichnisebenenweise z.B.) nicht so einfach zu machen.
Gruß, schöne Rest-Weihnachten, und besten Dank vorab für zielführende Ratschläge! (Ein Linux- / Unix-Könner bin ich immer noch nicht, trotz meiner fast 63 LJ...)
Ulli
meine 1813+ ist recht voll geworden, von 23,x TB ist nur noch ca. 1 TB frei. Ich weiß auch, woran das liegt, etwas euphorische Aktivität um das Stichwort nzb-Datei, also Usenet-Goodies im Überfluß.
Nun gibt es ja im Speicher-Analysator die Möglichkeit der Duplikat-Kandidatensuche. Konfiguration etc. war alles kein Problem, nach etwas mehr als 3 Tagen schickte mir die DS dann auch "mit freundlichen Grüßen" einen Link auf den Ergebnisreport. Hmm, ja, vom PC aus aufgerufen, Firefox (50.2 auf Win7 pro) findet was - und verbiestert dann mit einer weiß bleibenden Seite.
Also mal direkt auf der DS nachgesehen, da fand ich natürlich die Ergebnisdateien. Ein Versuch, report.html lokal auf der DS zu laden, wurde dann aber mit dem Hinweis quittiert, daß der Editor nur für Sources bis 10 MB gut sei, und die 22 MB würden ihn dann doch überfordern.
Arrrg.
Die analyzer.db-Datei ist 9.6 GB groß, report.html 22 MB, duplicates.csv dekomprimiert > 40 MB. Letztere läßt sich aber in Excel öffnen, da zeigen sich 99.864 Eintragszeilen mit sehr plausiblem Inhalt, überwiegend Dublettem, seltener Tripletts oder höher.
Alles toll, nur bleibt mir damit bislang noch das Werkzeug der zwar immer noch mühsamen, aber doch direkt zum Ziel führenden Bereinigung über das Speicher-Analysator-Werkzeug versperrt.
Wie lösen? Da die Dubletten zum nicht geringen Teil volumeweit gestreut liegen, ist eine fraktionierte Analyse (also verzeichnisebenenweise z.B.) nicht so einfach zu machen.
Gruß, schöne Rest-Weihnachten, und besten Dank vorab für zielführende Ratschläge! (Ein Linux- / Unix-Könner bin ich immer noch nicht, trotz meiner fast 63 LJ...)
Ulli