Paperless-AI

Tuxnet

Benutzer
Mitglied seit
02. Jan 2019
Beiträge
623
Punkte für Reaktionen
74
Punkte
48

JohneDoe

Benutzer
Mitglied seit
06. Jan 2025
Beiträge
15
Punkte für Reaktionen
6
Punkte
3
Was brauchst du denn mehr als die Compose, die vorgegebenen ist?
Wie in einem Thread schon geschrieben, finde ich es interessant, aber da keine eigene KI hoste fällt das für mich aus. Ich will meine Dokumente nicht von Open AI analysieren lassen. Und selber hosten fällt aus, weil ich die nötige Hardware nicht habe.
 

Tuxnet

Benutzer
Mitglied seit
02. Jan 2019
Beiträge
623
Punkte für Reaktionen
74
Punkte
48
guten Morgen @JohneDoe

Ich habe ja nicht nach einer Installationsanleitung gefragt, sondern ob es Erfahrungen über die Paperless-ngx Erweiterung gibt.
 

mjth.ffb

Benutzer
Mitglied seit
30. Jan 2023
Beiträge
35
Punkte für Reaktionen
15
Punkte
14
Korrigiert mich wenn ich falsch liege, aber sind bei Marius nicht 2 Möglichleiten erklärt? Also entweder mit OpenAI ODER mit lokalem Sprachmodell (Ollama)?

Grüße

Mikey
 

metalworker

Benutzer
Sehr erfahren
Mitglied seit
25. Apr 2023
Beiträge
3.581
Punkte für Reaktionen
1.390
Punkte
194
Hallo Mikey ,

ich hab das auf meiner Spielwiese mal installiert gehabt.
Ging recht einfach einzurichten.

Aber habs dann nicht übernommen.
Für mich gabs keinenen wirklich Mehrwert .
 

JohneDoe

Benutzer
Mitglied seit
06. Jan 2025
Beiträge
15
Punkte für Reaktionen
6
Punkte
3
Ich dachte du suchst auch eine Anleitung weil du auf Marius verlinkt hast. Und er macht ja nur Anleitungen.
Aber wie dem aus sei, ich habe es aus privacy Gründen nicht weiter getestet.

@metalworker hast du es mit Open AI oder der eigenen LLM getestet? Wenn zweiteres was für Hardware hat deine Spielwiese?
 

mjth.ffb

Benutzer
Mitglied seit
30. Jan 2023
Beiträge
35
Punkte für Reaktionen
15
Punkte
14
@metalworker ,
merci für das Statement. Spielwiese war das Stichwort. Die hab ich auch. 😊
Trotzdem: Wenn ich das bei Marius richtig verstehe, gibt`s da echt 2 Möglichkeiten, oder? Also lokal oder OpenAI?
Weil wenn das trotz allem über OpenAI läuft kommt das für mich auch nicht in Frage.
In einem Screenshot am Schluß der Anleitung sehe ich da eine Möglichkeit der Klartexteingabe. Eigentlich genial.
Ich hab eine Fotoverwaltung mit lokaler KI wo man Fotos mit Klartexteingabe suchen kann. Funzt hervorragend.

Grüße

Mikey
 

metalworker

Benutzer
Sehr erfahren
Mitglied seit
25. Apr 2023
Beiträge
3.581
Punkte für Reaktionen
1.390
Punkte
194
Ich hab es mit eigenen LLM getestet .
Aber meine Spielwiese hat auch genug Dampf . Ist nen Dual Xeon System mit 512GB RAM ;-)
Also sicht nicht für den Normalen User vergleichbar.
 
  • Haha
Reaktionen: ctrlaltdelete

JohneDoe

Benutzer
Mitglied seit
06. Jan 2025
Beiträge
15
Punkte für Reaktionen
6
Punkte
3
@metalworker genau darum ging es mir. Also die Hardware die man üblich im Homelab hat, schafft wahrscheinlich keine LLM so so betreiben, dass es auch Spaß macht damit zu arbeiten.

Trotzdem: Wenn ich das bei Marius richtig verstehe, gibt`s da echt 2 Möglichkeiten, oder?
Ja entweder Open AI oder selber hosten. Aber da brauchst du schon ordentliche Hardware für. Eine DS224+ bekommt das wohl nicht wirklich hin. Auch wenn Marius eine Anleitung für Synology dafür hat. Nur weil etwas auf einem System läuft, heißt es nicht, dass es sinnvoll ist das auch zu nutzen oder es Spaß macht....
 
  • Like
Reaktionen: mjth.ffb


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat