jDownloader RSScrawler 3.0 (noarch) / Paketzentrum (JDownloader Add-on)

Status
Für weitere Antworten geschlossen.

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Hab ich gemacht mal warten ob was passiert.

Bis dato hat es nur einmal geklappte mit Eintrag : 19-2

Bildschirmfoto 2017-12-06 um 18.44.02.jpg
 

Feuerwasser

Benutzer
Mitglied seit
28. Aug 2012
Beiträge
245
Punkte für Reaktionen
0
Punkte
22
Bei mir findet er TWD auch nicht. Genau das selbe wie bei Elementary. Simpsons uns Scorpio dagegen wird gefunden. Weiß auch nicht was mit Regex nicht stimmt. Sollte eingentlich passen. Das DEUTSCH kann man generell weglassen wenn man den Uploader anhängt.
Was macht Shift + Enter?
Elementary.*1080p.*-TVP
Die.Simpsons.*DD51.*1080p.*-GDR
The.Walking.Dead.*1080p.*-4SJ
Scorpion.*DD51.*1080p.*-TVS
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.217
Punkte für Reaktionen
69
Punkte
114
Mein TWD Eintrag ist ja auch nicht HD sondern SD ;)
Wenn als Auflösung HD eingestellt ist klappts viell. nicht...
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Hallo

Hab die letzten Tage alles möglichen probiert. SD / HD , eine Zeile , mehrere, die verschiedenen Schreibweisen und zuletzt nur 19-2 weil das einmal kurz was gelieferte hatte.

Alles ohne Erfolg Log ist immer noch leer.

Nun hab ich setup.sh Punkt 2 noch mal installiert. Nicht das update.
Ohne Fehler durch gelaufen.

Was mich wundert ist das ich dachte die Einstellungen von Crawler wären weg. Sind Sie aber nicht.

Aber crawlen will er immer noch nicht.

Der nutzt doch Port 80 für die Verbindung ins Internet
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
So alles gelöscht, alle ordner zu Fuß platt gemacht und noch mal von vorn
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
So hatte nach der Neuinstallation alles aktiv gesetzt und überall nur 19-2 eingetragen zum testen.

Heute Nacht hat er nun Ganze Staffeln gefunden. Erste Erfolg.

Die Crawler Job landen nun auch im Watchfolder. Aber wie gehts dann weiter ? Eigentlich müste der JD Sie da holen. Den Ordner hatte ich angegeben.

Bildschirmfoto 2017-12-11 um 05.51.01.jpg

Bildschirmfoto 2017-12-11 um 05.55.04.png
 

Feuerwasser

Benutzer
Mitglied seit
28. Aug 2012
Beiträge
245
Punkte für Reaktionen
0
Punkte
22
Mir ist schonmal aufgefallen, dass Du den "folderwatch" im RSScrawlerv3 Verzeichnis hast. Warum? Der gehört unter /volume1/@appstore/JDownloader/folderwatch. Schließlich soll doch auch JDownloader die Jobs holen und der RSScrawler es ihm nur ablegen. Wie soll denn JDownloader ins RSScrawler-Verzeichnis? Oder hast du das im JD unter Folderwatch so konfiguriert?
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
@Feuerwasser

Super so einfach ist die Lösung. Einfach falsch eingetippt in JD oh mann.

So file werden verarbeitet.


Nun muß ich nur noch rausbekommen wie ich " das richtige finde " .

Bis dato findet er nur Complete Serien keine einzelnen Folgen.
Und obwohl ich den Hoster gewählt habe , findet er auch den andere Hoster
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
So der Crawler läuft warum auch immer. Heute morgen update gemacht eine Neustart dann lief er.

Nun noch ein ganz kleines Problem. Will zwar das die Links in der Linksammlung landen aber nicht per Auto nach Download gehen.

Hab das GeneralSettings: Autoadd Links After Linkcheck aus gestellt aber es hilft nix. Gehen direkt nach Download. Gibts da noch was wo ich es einstellen kann ?
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
RSS Crawler geht. Muß Ihn nur alle 4 Stunden per Aufgabenplaner stoppen und starten sonst findet er irgent wann nix mehr.
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
@ Feuerwasser hast due das 3kw gelöst ? Habs eingerichtet, Guthaben und API eingetragen, aber JD fragt immer nach dem lösen und schickt nix an 3kw.
 

Feuerwasser

Benutzer
Mitglied seit
28. Aug 2012
Beiträge
245
Punkte für Reaktionen
0
Punkte
22
3kw? Du meinst wohl 9kw. Gelöst ja, hab mir bei 9kw nen API Key generiert für JD2 und den in den Settings eingerichtet. Für SJ brauchst du "Mouse Captcha" aktiviert, sonst gehts nicht.
Was ich gerne noch hätte ist, dass JD mir das Captcha gibt, wenn ich die Oberfläche offen habe, sprich Self-Solve, aber das funzt ned. Alle Captchas gehen nach 9kw und ziehen fleißig Guthaben.
Unschick finde ich auch, dass der Link verloren geht, wenn das Captcha nicht gelöst wird, bei Mouse Captchas ist das irgendwie öfter der Fall.
Mir würde auch reichen, dass Links einfach gespeichert werden und nicht dem Linksammler hinzugefügt werden. Das bietet JD ja glaub ich auch an.
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
hi ja das Mouse Captcha hab ich an.

Aber irgend wie landen die nicht bei 9KW ( war Schreibfehler ).

Ich muß Sie immer lösen wenn ich das Webinterface aufmache bekomme ich Hinweise.
 

Feuerwasser

Benutzer
Mitglied seit
28. Aug 2012
Beiträge
245
Punkte für Reaktionen
0
Punkte
22
Was für Meldungen bekommst du denn?
Folgende Einstellungen müssen aktiviert sein: (unter Profieinstellungen mal einfach in der Suchleiste nach 9kw suchen)
Captcha9kwSettings: Enabled
Captcha9kwSettings: Enabled Globally
Captcha9kwSettings: mouse
Captcha9kwSettings: Api Key (hier natürlich den API Key eintragen und auf Save klicken)
Captcha9kwSettings: puzzle

Selfsolve auf deaktiviert lassen
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Alles so eingestellt. Nur das war an hab ich abgestellt :


Selfsolve auf deaktiviert lassen


Meldung bekomme ich keine. Wenn ich MyJD im Browser aufmachen sagt er das Captcha ansteht und bietet es mir zum lösen an. Gehe ich nicht rein in den Browser passiert nix.
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
hab 9wk wieder abgestellt.

Crawler findet links. Aber irgent was läuft falsch. Im folderwach liegen Sie unter add aber sind nicht verarbeitet worden im myJD . Nicht in Download Liste. Habs mit einer neuen Serie getestet um sicher zu gehen das die Datei noch nie geladen wurde.
 

UweLe

Benutzer
Mitglied seit
26. Sep 2012
Beiträge
72
Punkte für Reaktionen
0
Punkte
6
habe RSScrawler installiert, findet laut log auch eine serie (gemäß suchauftrag) und im folderwatch ordner ist nichts... jetzt habe ich den pfad zum jdownloader von /volume1/@appstore/JDownloader mal auf /var/packages/JDownloader mal gucken ob es jetzt geht...
wie kann ich einen erneuten test auslösen (damit er das was im log steht z.b. nochmal versucht ins folderwatch zu laden?
 

UweLe

Benutzer
Mitglied seit
26. Sep 2012
Beiträge
72
Punkte für Reaktionen
0
Punkte
6
hat wer tipps warum im folderwatch nix geadded wird? rechte (chmod 777) sind aufen folderwatch ordner.. habe beide lokations probiert:
/volume1/@appstore/JDownloader und /var/packages/JDownloader
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
muste doch der Pfad sein, feld das Verzeichniss Folderwatch

/volume1/@appstore/JDownloader/Folderwatch
 

UweLe

Benutzer
Mitglied seit
26. Sep 2012
Beiträge
72
Punkte für Reaktionen
0
Punkte
6
ich starte es über

docker run -d --name="RSScrawler" -p 9090:9090 -v /volume1/@appstore/RSScrawler-master:/config:rw -v /var/packages/JDownloader:/jd2:rw -e LOGLEVEL=DEBUG rix1337/docker-rsscrawler
auf der homepage von RSScrawler dann die Serien Filter eingestellt und laut logfile findet er auch was, aber im folderwatch landet nix
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat