Paperless-ngx Paperless-ngx – DMS via Docker auf dem NAS

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.214
Punkte für Reaktionen
1.034
Punkte
224
Ich habe deshalb meine Postgres-Version mittlerweile festgeschrieben, sodass da gar nichts mehr automatisch aktualisiert wird.

Lösen lässt sich das Problem auf zwei Wegen:
  • In der Compose Version 15 festschreiben, denn Vorteile wie bei Updates von Paperless-ngx hast du mit den Updates von Postgres in der Regel nicht oder
  • Einen Dump der Datenbank erstellen, Update machen, dann den Dump wieder einspielen und danach wieder Paperless-ngx starten.
 

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.214
Punkte für Reaktionen
1.034
Punkte
224
Ein Korrespondent heißt bei mir "Behörde"
Deswegen haben wir das vermutlich auch nicht verstanden, weil ich für jede einzelne Behörde auch einen eigenen Korrespondenten anlege. Dann kannst du nämlich die ganzen Dokumente auch schneller finden. Wenn du zusätzlich noch eine eigene Gruppe für beispielsweise Behörden erstellen willst, kannst du das über den Speicherpfad lösen oder aber auch den Dokumententyp. Nur als Denkanstoß, nicht als Kritik gemeint!
 
  • Like
Reaktionen: juwo

Grischabock

Benutzer
Mitglied seit
10. Sep 2009
Beiträge
282
Punkte für Reaktionen
10
Punkte
24
Ah ja okay so kann ich es auch verstehen. Ich habe auch für jeden einen und nutze dann sonst noch die Labels wenn es sein soll. Zb. haben wir zwei Autos und die Unterlagen erhalten dann jeweils das Label von meinem oder dem Auto meiner Frau.
 
  • Like
Reaktionen: juwo

Caramlo

Benutzer
Mitglied seit
11. Mai 2019
Beiträge
224
Punkte für Reaktionen
64
Punkte
34
Ich habe bei mir Postgresql als Datenbank für Paperless in Rente geschickt und bin auf MariaDB umgestiegen. Das Festlegen auf eine feste Version bei Postgresql verhindert zwar den Ärger mit inkompatiblen Datenbanken nach einem Update, nur irgendwann wird das kommen und das ist dann ein ganz schöner Aufwand, da man alle Dokumente und die Datenbank exportieren und wieder importieren muss.
MariaDB läuft auf meiner Syno sowieso und Performance-Nachteile konnte ich noch nicht bemerken. Wenn man aktueller sein möchte, was die MariaDB Versionen betrifft, kann man auch MariaDB im Dockercontainer laufen lassen. Bei Updates gibt‘s bei MariaDB keine Probleme. Die vorhandenen Datenbanken werden beim Update automatisch konvertiert, wenn erforderlich.
Es gibt einen guten Thread von @Adama mit einer Anleitung hierfür:
https://www.synology-forum.de/threads/paperless-ngx-migration-postgresql-zu-mariadb.123727/

Schönen Sonntag an alle!
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.831
Punkte für Reaktionen
854
Punkte
154
So ein Problem kann mit jeder Datenbank auftreten. Die Macher haben die interne Struktur der Datenbanken geändert. Bei einem Upgrade von Hand wird die DB richtig angepasst. Wenn man aber nur das Docker Image ändert, dann passiert dies natürlich nicht. Das hat nichts damit zu tun, dass PostgreSQL so schlecht ist. Wenn MariaDB breaking Changes in einer Version hat, dann wirst du das selbe Problem haben. Und wenn du MariaDB aktuell als Paket laufen lässt, dann bist ja eh 5 oder 6 Versionen hinterher. Da ist das Problem doch sogar noch wahrscheinlicher was du selber geschrieben hast.
 

Caramlo

Benutzer
Mitglied seit
11. Mai 2019
Beiträge
224
Punkte für Reaktionen
64
Punkte
34
Ich habe nicht gesagt, dass Postgresql schlecht ist und will auch keine Grundsatzdiskussion vom Zaun brechen. Ich habe nur auf eine Alternative hinweisen wollen, die sich für mich in der Anwendung einfacher darstellt. Dass das MariaDB Paket von Synology dem aktuellen Stand hinterherhinkt, ist mir bewußt. Ich nutze es aber schon seit Jahren und hatte noch nie Probleme bei einem Update (auch wenn das nicht so oft vorkommt).
Gefühlt beinhaltet aber fast jedes Update bei Postgresql einen breaking Change. Und mal ehrlich: Bei Paperless läuft Postgresql im Docker Container, wer macht da schon ein manuelles Update.
 

Hähnleschorsch

Benutzer
Mitglied seit
17. Jan 2023
Beiträge
44
Punkte für Reaktionen
2
Punkte
58
Ich habe dir im anderen Thread doch einen Link geschickt mit einer Anleitung wie du Synology per NFS mounten kannst. Du kannst es auch per SMB mounten. Dann musst du nur die Pfade auf der linken Seite anpassen. https://linuxhint.com/mount-smb-shares-on-ubuntu/ Hier noch eine Anleitung wie du per SMB was mounten kannst. Das hat dabei nichts mit Paperless zu tun sondern mit deinem Netzwerk.
Leider klappt das bei mir nicht. Ich dachte mir nun es wäre einfacher eine Desktopversion auf die VM zu installieren und von dort grafisch Ordner einfach freigeben. Da erscheint dann die Fehlermeldung mit dem Eintrag in der .smb.cfg Habe mich da extra lange eingelesen und den Eintrag mit root ergänzt usershare owner only = false und trotzdem weigert er sich mit der selben Fehlermeldung. Nun wollte ich es über Konsole machen und es erscheint:
sudo mount -t cifs -o rw,vers=3.0,credentials=/root/.examplecredentials //192.168.178.82/sharedDir /volume1/docker/paperless-ngx


mount error(13): Permission denied


Refer to the mount.cifs(8) manual page (e.g. man mount.cifs) and kernel log messages (dmesg)

Kann ich nun die ganzen Installationen vergessen von Docker und paperless weil Ubuntu dem macht und ich an die Ordner nicht dran komme?
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.831
Punkte für Reaktionen
854
Punkte
154
Was probierst du da? Du kannst doch einfach in die Shell vom Container gehen. Da musst du doch nix mounten? Mir ist aber nicht klar was du genau machst :)
 

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.214
Punkte für Reaktionen
1.034
Punkte
224
da man alle Dokumente und die Datenbank exportieren und wieder importieren muss
Nein, muss man nicht. Es wird der Dump exportiert, das Update eingespielt und dann der Dump wieder eingespielt. Dokumente müssen dafür nicht ex- und wieder importiert werden.
 

Caramlo

Benutzer
Mitglied seit
11. Mai 2019
Beiträge
224
Punkte für Reaktionen
64
Punkte
34
Ok, dann muss ich im Februar was falsch gemacht haben. Da ging das Update nicht ohne Dokumenten Ex- und Reimport. (siehe Post #197-ff). Jedenfalls waren da nach einem Einlesen des Dumps keine Dokumente mehr in der Web-UI von Paperless.
 

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.214
Punkte für Reaktionen
1.034
Punkte
224
Ich werde das wie gesagt die Tage nochmal nachvollziehen, aber bei meinem Update von Postgres 14 auf 15 habe ich hier das ganze mit EDvonSchleck durchgesprochen und letztendlich nur die Datenbank neu eingespielt, weil bei diesem Vorgang die vorhandene Datenbank an das aktuelle "Format" angepasst wird.
 

Adama

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
05. Mrz 2013
Beiträge
2.187
Punkte für Reaktionen
765
Punkte
154
So hab ich das auch gemacht, bevor ich zu MariaDB gewechselt bin.

Dunp erzeugen, Datenbank neu erzeugen und Dump wieder einlesen. Dokumente waren nicht davon betroffen.
 

juwo

Benutzer
Mitglied seit
09. Apr 2011
Beiträge
42
Punkte für Reaktionen
8
Punkte
8
Deswegen haben wir das vermutlich auch nicht verstanden, weil ich für jede einzelne Behörde auch einen eigenen Korrespondenten anlege. Dann kannst du nämlich die ganzen Dokumente auch schneller finden. Wenn du zusätzlich noch eine eigene Gruppe für beispielsweise Behörden erstellen willst, kannst du das über den Speicherpfad lösen oder aber auch den Dokumententyp. Nur als Denkanstoß, nicht als Kritik gemeint!
Guter Denkanstoß, bin dankbar für jede Idee.... da ich noch am probieren bin, ist noch alles möglich.. Danke!!
 

juwo

Benutzer
Mitglied seit
09. Apr 2011
Beiträge
42
Punkte für Reaktionen
8
Punkte
8
Ah ja okay so kann ich es auch verstehen. Ich habe auch für jeden einen und nutze dann sonst noch die Labels wenn es sein soll. Zb. haben wir zwei Autos und die Unterlagen erhalten dann jeweils das Label von meinem oder dem Auto meiner Frau.
Super, bin um jede Idee dankbar. Danke!!
 
  • Like
Reaktionen: Grischabock

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Damit ist gemeint, dass du bereits einen Container oder Dienst auf der DS am Laufen hast, der den Port belegt. Du musst also den Port vom webserver einfach ändern.
 

LORDNIKON1

Benutzer
Mitglied seit
16. Nov 2015
Beiträge
351
Punkte für Reaktionen
25
Punkte
34
Habe ich auch gerade gecheckt. Danke Dir @plang.pl - habe deshalb den Post direkt gelöscht. Du meinst in der .yml Datei, richtig?
 

Janne16

Benutzer
Mitglied seit
06. Aug 2023
Beiträge
11
Punkte für Reaktionen
0
Punkte
1
Schade, so können andere das nicht nachvollziehen wenn sie in diesem Faden suchen
 

LORDNIKON1

Benutzer
Mitglied seit
16. Nov 2015
Beiträge
351
Punkte für Reaktionen
25
Punkte
34
Also noch einmal kurz das Recap.

Ich bin der Anleitung von @Monacum gefolgt (siehe hier: https://www.synology-forum.de/threa...ocker-auf-dem-nas.124614/page-12#post-1068063)

[Noch einmal ganz herzlichen Dank für die Mühe, die Du Dir da gemacht hast @Monacum. Langsam bekomme ich ein besseres Verständnis von dem Thema und das liegt ganz maßgeblich an dieser starken Hilfestellung, die ich hier bekomme.]

habe mich bei den Github File Templates bedient (siehe hier: https://github.com/paperless-ngx/paperless-ngx/tree/main/docker/compose)

und bin dann im Rahmen der Installation auf die Fehlermeldung gestoßen, dass der Port 8000 belegt ist. In der Docker Compose .yml Datei wird der Port definiert, unter dem der Dienst intern angesprochen wird (bei "webserver" unter "ports"). Im Standard ist dort 8000:8000 angegeben, was zu dem Konflikt führt (Port 8000 ist wohl für die Download Station reserviert). Wenn man dort einfach die erste 8000 durch einen nicht belegten Port ersetzt, ist das Problem gelöst - also z.B. 8123:8000. Das heißt Du rufst den Dienst unter "deinedomain:8123" auf.

@all: bitte korrigieren, falls ich das nicht ganz korrekt wiedergegeben habe.

Die Installation läuft sauber und stabil, ehrlich gesagt sogar besser als vorher mit dem automatischen "rundum sorglos" Paket Install.

P.S.: Ich bin bei postgres geblieben, auf der Github Seite gibt es aber soweit ich das sehe auch Configs für die Maria DB Variante.

P.P.S. - ggf. auch interessant für einige: Ich habe dazu einen Workflow aufgesetzt, bei dem ich (1) meine Post batchweise Scanne. Die Scans kommen (2) per E-mail in meinem Postfach an, dort werden sie (3) rausgefischt und in einen (4) lokalen Ordner verschoben, dort wird nochmal (5) OCR drübergelegt, (6) lokal eine Kopie als Backup abgelegt und (7) eine Kopie hochgeladen auf den "consume" Ordner in Paperless.

Zugegeben, das Raussammeln aus der E-Mail (skriptbasiert) ist recht wacklig. Da ich die Scans aber häufig noch nachbearbeite ist das nicht so wild. Ich schiebe dann das bearbeitete PDF in den Ordner (Schritt (4) ff. vorstehend).
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Schatzi70

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.214
Punkte für Reaktionen
1.034
Punkte
224
P.P.S. - ggf. auch interessant für einige: Ich habe dazu einen Workflow aufgesetzt, bei dem ich (1) meine Post batchweise Scanne. Die Scans kommen (2) per E-mail in meinem Postfach an, dort werden sie (3) rausgefischt und in einen (4) lokalen Ordner verschoben, dort wird nochmal (5) OCR drübergelegt, (6) lokal eine Kopie als Backup abgelegt und (7) eine Kopie hochgeladen auf den "consume" Ordner in Paperless.
Das verstehe ich nicht wirklich. Paperless führt selbst OCR durch. Oder anders gesagt, ich mache das wie folgt:
(1) Batchweise scannen (per Trennblatt werden unterschiedliche Dokumente getrennt)
(2) Hochladen in Paperless

Eine lokale Kopie ist auch kein Backup 😉 Meine mache ich per Hyper Backup, die Dokumente liegen in einer Ordnerstruktur abgelegt und sind damit 1:1 gesichert.
 

LORDNIKON1

Benutzer
Mitglied seit
16. Nov 2015
Beiträge
351
Punkte für Reaktionen
25
Punkte
34
Mir ist bewusst, dass paperless OCR durchführt. Die auf dem lokalen Rechner zurückbleibende Datei wird unabhängig von paperless so behandelt. Vll. doppelt gemoppelt aber fand ich irgendwie gut so.

Backup: Nun, in gewisser Weise schon, denn die Datei auf dem lokalen Rechner ist ein anderer Ort als die Synology. Aber auch auf der Synology sichere ich den Archivordner mit Hyper Backup auf eine andere Synology im eigenen Netz.

Was ich jetzt noch klären muss ist das Thema Datenbanksicherung, idealerweise automatisiert.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat