itari
Benutzer
- Mitglied seit
- 15. Mai 2008
- Beiträge
- 21.900
- Punkte für Reaktionen
- 14
- Punkte
- 0
Alle Performance-Messungen in Ehren ... das Thema ist ja schon Hundertfach hier diskutiert worden ... und so wie ich das wahrnehme, gibt es folgenden Feststellungen zu jeweils dem gleichen Modell:
- es gibt User, die sich anstrengen, um die Performancewerte eines Tests oder die von Synology veröffentlichten Werte zu erreichen
- es gibt User, die sich nicht anstrengen müssen, um die Performancewerte deutlich zu übertreffen
- es gibt User, die mittels verschiedener Maßnahmen ihre ursprünglich bescheidenen Performance erheblich steigern konnten
- es gibt User, die unter gleichen Bedingungen sehr unterschiedlich Performancewerte festgestellt haben (Reliabilität)
Daraus habe ich den Schluss für mich gezogen, dass man Performance-Messungen eher weniger Bedeutung zu kommen lassen sollte, wenn die Tester es nicht geschafft haben, mittels geeigneter Tuningmaßnahmen die ersten Messergebnisse um mindestens 50% zu übertreffen. Das mag überraschend klingen, weil man sich ja auf den Standpunkt stellen könnte, ein Hersteller sollte sein Produkt so ausliefern, dass es optimale Ergebnisse erzielen kann ... wir wissen aber, dass das nicht wirklich der Fall ist. Nun kann es durchaus sein, dass Tuningmaßnahmen sehr exotisch ausfallen können und auch Zeit kosten (vielleicht pro System mehrere Wochen) und deswegen muss man ehrlicherweise auch sagen, dass es wohl kaum jemanden gibt, der soviel Geld/Zeit für Tests in die Hand nimmt. Deswegen sind die Tests eben auch nicht viel Wert
Anmerkung: ich habe noch nie eine detailierte Testungs-Beschreibung inklusive der Persönlichkeitsprofile der Tester veröffentlicht gesehen ... wer weiß schon, was die wirklich können und wann sie daneben greifen? Da sind mir die Ergebnisse interessensgeleitete User, die versuchen, das letzte aus ihren System herauszuholen, deutlich sympatischer und ehrlicher.
Itari
- es gibt User, die sich anstrengen, um die Performancewerte eines Tests oder die von Synology veröffentlichten Werte zu erreichen
- es gibt User, die sich nicht anstrengen müssen, um die Performancewerte deutlich zu übertreffen
- es gibt User, die mittels verschiedener Maßnahmen ihre ursprünglich bescheidenen Performance erheblich steigern konnten
- es gibt User, die unter gleichen Bedingungen sehr unterschiedlich Performancewerte festgestellt haben (Reliabilität)
Daraus habe ich den Schluss für mich gezogen, dass man Performance-Messungen eher weniger Bedeutung zu kommen lassen sollte, wenn die Tester es nicht geschafft haben, mittels geeigneter Tuningmaßnahmen die ersten Messergebnisse um mindestens 50% zu übertreffen. Das mag überraschend klingen, weil man sich ja auf den Standpunkt stellen könnte, ein Hersteller sollte sein Produkt so ausliefern, dass es optimale Ergebnisse erzielen kann ... wir wissen aber, dass das nicht wirklich der Fall ist. Nun kann es durchaus sein, dass Tuningmaßnahmen sehr exotisch ausfallen können und auch Zeit kosten (vielleicht pro System mehrere Wochen) und deswegen muss man ehrlicherweise auch sagen, dass es wohl kaum jemanden gibt, der soviel Geld/Zeit für Tests in die Hand nimmt. Deswegen sind die Tests eben auch nicht viel Wert
Anmerkung: ich habe noch nie eine detailierte Testungs-Beschreibung inklusive der Persönlichkeitsprofile der Tester veröffentlicht gesehen ... wer weiß schon, was die wirklich können und wann sie daneben greifen? Da sind mir die Ergebnisse interessensgeleitete User, die versuchen, das letzte aus ihren System herauszuholen, deutlich sympatischer und ehrlicher.
Itari