@Tuxnet: Danke für den Fingerzeig! Wie/womit kommst du denn an die schönen graphischen Darstellungen zum Cache? Sowas fände ich bei mir auch prima.
Ich habe mal die selbe Konfig angewendet und damit läuft es auch im Normalzustand bei mir. Aber sobald ich etwas intensivere Dinge mache, wie z.B. ein Office Dokument öffne (per Nextcloud Office Anbindung mit einem CODE-Server als Docker-Container), wurde mein Log mit Fehlermeldungen zugemüllt (RedisException: OOM command not allowed when used memory > 'maxmemory'.) und es kommen 500er Fehler und das Laden von Office schlägt fehl.
Ich habe daraufhin per redis-cli den maxmemory erhöht. Für alle, die sich (so wie ich) noch nie vorher damit beschäftigt haben: Das geht im Falle des SynoCommunity packages von der shell aus per:
Vorher war anscheinend mein used_memory aus irgendeinem Grund größer als maxmemory, was anscheinend für die Probleme sorgte. Sicherheitshalber habe ich auch noch per redis-cli den Cache geflusht:
Im Moment gehen jetzt alle Funktionen - auch CODE-Server-Anbindung - mit Redis-Cache config wie von Tuxnet beschrieben. Mal sehen, ob das jetzt so bleibt, oder das wieder überläuft...es ist schon nervig, dass man jedesmal, wenn man treu und vorbildlich auf eine aktualisierte Nextcloud-Version updatet, man bangen muss, welche "Überraschungen" man jetzt wieder fixen muss.
Ich habe mal die selbe Konfig angewendet und damit läuft es auch im Normalzustand bei mir. Aber sobald ich etwas intensivere Dinge mache, wie z.B. ein Office Dokument öffne (per Nextcloud Office Anbindung mit einem CODE-Server als Docker-Container), wurde mein Log mit Fehlermeldungen zugemüllt (RedisException: OOM command not allowed when used memory > 'maxmemory'.) und es kommen 500er Fehler und das Laden von Office schlägt fehl.
Ich habe daraufhin per redis-cli den maxmemory erhöht. Für alle, die sich (so wie ich) noch nie vorher damit beschäftigt haben: Das geht im Falle des SynoCommunity packages von der shell aus per:
Code:
redis-cli
127.0.0.1:6379> config get maxmemory
127.0.0.1:6379> config set maxmemory 100M
Vorher war anscheinend mein used_memory aus irgendeinem Grund größer als maxmemory, was anscheinend für die Probleme sorgte. Sicherheitshalber habe ich auch noch per redis-cli den Cache geflusht:
Code:
127.0.0.1:6379> flushall
Im Moment gehen jetzt alle Funktionen - auch CODE-Server-Anbindung - mit Redis-Cache config wie von Tuxnet beschrieben. Mal sehen, ob das jetzt so bleibt, oder das wieder überläuft...es ist schon nervig, dass man jedesmal, wenn man treu und vorbildlich auf eine aktualisierte Nextcloud-Version updatet, man bangen muss, welche "Überraschungen" man jetzt wieder fixen muss.