jDownloader RSScrawler (noarch) / Paketzentrum (JDownloader Add-on)

Status
Für weitere Antworten geschlossen.

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Morgen oder übermorgen gibt es ein größeres Update für den Crawler. Aktuell sind übrigens die Feeds von SJ und evtl. auch DJ kaputt, also nicht wundern das nix gefunden wird.
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Was auch immer für dich richtig ist, auf jeden Fall sollte es danach gehen.

Ein Kollege von mir hat dasselbe Phänomen auf einer xpenology mit DSM 5.2.-5644-5.
Paket bleibt auf angehalten aber der Crawler läuft.
Installation von EBI/optware hat keine Änderung gebracht.

Nachdem es aber läuft (gecheckt per ps) ist das Problem eher nebensächlich ;)


P.S.: Wann kommt das Crawler Update bzw. was wirst du verbessern?
 

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Liegt wie gesagt am PS Befehl der das Parameter -a nicht kann. Das Paket werde ich zeitnah aktualisieren, da gibt es mittlerweile eine ganz neue Version von dem RSScrawler. Und DKeppi, wie schon Eingangs erwähnt, ich schnüre nur das Paket, der Code selbst ist nicht von mir. Ich werde dazu aber einen neuen Thread aufmachen.
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114

lennnox1

Benutzer
Mitglied seit
16. Aug 2016
Beiträge
3
Punkte für Reaktionen
0
Punkte
0
Ich habe ein Problem, wenn ich lxml installieren will. Ich bekomme immer die Fehlermeldung:

" Setup script exited with error: command '/usr/local/x86_64-pc-linux-gnu/bin/x86_64-pc-linux-gnu-ccache-gcc' failed with exit status 1"

Wenn ich "gcc -v" eingebe -> gcc version 5.3.0 (GCC)

Vielen Dank schonmal für die Hilfe :)

Edit: Habe DSM 6.0 installiert
 

Itsie

Benutzer
Mitglied seit
26. Aug 2016
Beiträge
8
Punkte für Reaktionen
0
Punkte
0
Hallo zusammen,

eig. habe ich alles soweit hinbekommen, er crawlt wunderbar etc. pp.
Ich habe 9KW als Captcha-Lösung auch eingestellt, jedoch scheint es so als ob er z.B SJ Links nicht wirklich einfügt es kommen Offline-Links aufgrund falscher Adresse (nicht encrypted), gibt es hier eine Lösung?

LG Itsie
 

Norax

Benutzer
Mitglied seit
17. Jul 2015
Beiträge
16
Punkte für Reaktionen
0
Punkte
1
Erst einmal: Grandiose Idee! Ich suche schon lange nach einer Möglichkeit, die Vorteile des Usenets im Hinblick auf Automatisierung auch auf die OCH's bzw. den JDownloader zu übertragen. Nur leider funktioniert der automatische Download bei mir nicht. Python sowie Python3 und auch Optware sind installiert, der Crawler lässt sich jedoch nach einem Restart des NAS nicht mehr ausführen.

Anbei mal die Config Daten, falls da noch etwas im Argen liegt:

RSSCrawler.ini:
# Dieser Pfad muss das exakte Verzeichnis des JDownloaders sein, sonst funktioniert das Script nicht!
jdownloader = /volume1/@appstore/JDownloader
# Das Suchintervall in Minuten sollte nicht zu niedrig angesetzt werden um keinen Ban zu riskieren
interval = 10
# Um ueber hinzugefuegte Releases informiert zu werden hier den Pushbullet API-Key eintragen
pushbulletapi = o.2s5bvVr1bGAoM4BQbCJ9Stxxxxxxxxxx
# Hier den gewuenschten Hoster eintragen (Uploaded oder Share-Online)
hoster = Share-Online

Rest wurde nicht verändert.

MB_Staffeln/SJ_Serien.txt:
DEUTSCH.*Mr.Robot.*.S02.*.720p.*
...
 

DrSniper

Benutzer
Mitglied seit
16. Mai 2012
Beiträge
54
Punkte für Reaktionen
0
Punkte
0
Hallo
Wenn ich versuche RSSCrawler zu starten bekomme ich diese Fehlermeldung:
Code:
NAS> python RSScrawler.py
Traceback (most recent call last):
  File "RSScrawler.py", line 44, in <module>
    import pycurl
ImportError: No module named pycurl
Wie bekomme ich dieses pycurl nachinstalliert?

Wenn ich easy_install pycurl eingebe kommt das:
Code:
NAS> easy_install pycurl
Searching for pycurl
Reading http://pypi.python.org/simple/pycurl/
Best match: pycurl 7.43.0
Downloading https://pypi.python.org/packages/12/3f/557356b60d8e59a1cce62ffc07ecc03e4f8a202c86adae34d895826281fb/pycurl-7.43.0.tar.gz#md5=c94bdba01da6004fa38325e9bd6b9760
Processing pycurl-7.43.0.tar.gz
Running pycurl-7.43.0/setup.py -q bdist_egg --dist-dir /tmp/easy_install-VZebhq/pycurl-7.43.0/egg-dist-tmp-LonCll
Using curl-config (libcurl 7.24.0)
warning: no files found matching 'src/Makefile'
unable to execute '/usr/local/i686-pc-linux-gnu/bin/i686-pc-linux-gnu-ccache-gcc': No such file or directory
error: Setup script exited with error: command '/usr/local/i686-pc-linux-gnu/bin/i686-pc-linux-gnu-ccache-gcc' failed with exit status 1
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Probier es bitte mal mit:

Rich (BBCode):
/usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG
 

DrSniper

Benutzer
Mitglied seit
16. Mai 2012
Beiträge
54
Punkte für Reaktionen
0
Punkte
0
Da bekomme ich:
Rich (BBCode):
NAS> /usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG
-ash: /usr/local/python/bin/python: not found
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Dann hast du wohl kein python installiert!
Nimm packages.synocommunity.com als Paketquelle und installier das mal...
 

DrSniper

Benutzer
Mitglied seit
16. Mai 2012
Beiträge
54
Punkte für Reaktionen
0
Punkte
0
python3 hatte ich installiert
habe jetzt nochmal python installiert
jetzt bekomme ich das als Meldung
Rich (BBCode):
NAS> /usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG
Traceback (most recent call last):
  File "RSScrawler.py", line 34, in <module>
    from docopt import docopt
ImportError: No module named docopt
 

tippgeber

Benutzer
Mitglied seit
29. Sep 2016
Beiträge
3
Punkte für Reaktionen
0
Punkte
0
Du brauchst python 2.7 nicht python 3.

Und dann die aufgezählten Pakete aus der https://github.com/rix1337/RSScrawler/blob/master/requirements.txt

Die aktuelle Version 2.0.3 des Scripts ist aber mittlerweile weit von diesem Paket entfernt. Sollte mal auf den neuesten Stand gebracht werden!

Gibt mittlerweile einen Webserver für die Einstellungen.. ist irgendwie bequemer als in der Konsole rumzufuhrwerken.
 

lukeS

Benutzer
Mitglied seit
25. Okt 2016
Beiträge
1
Punkte für Reaktionen
0
Punkte
0
Hallo zusammen,

ich hätte da mal eine frage !
ist es möglich andere webseiten feed hinzuzufügen ?
oder gehn nur die beiden seiten die schon drinne sind.

freue mich über eine antwort

LG
 

Misaal

Benutzer
Mitglied seit
18. Sep 2014
Beiträge
124
Punkte für Reaktionen
0
Punkte
16
Hallo zusammen

Bei mir kommt folgende Meldung:

Image 1.png

Wie kann ich es beheben?

Vielen Dank für die Hilfe
 

Misaal

Benutzer
Mitglied seit
18. Sep 2014
Beiträge
124
Punkte für Reaktionen
0
Punkte
16
Hallo

Ok das PhantomJS hat nicht's mit dem Crowler zu tun. Entschuldigt. :)
 

yavaz

Benutzer
Mitglied seit
08. Nov 2010
Beiträge
21
Punkte für Reaktionen
0
Punkte
0
@neutron, könntest du ggf. das Paket updaten?
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
+1 fürs Update, aber neutron war ewig nicht mehr online hier! :(
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Schade das hier nichts mehr passiert.... :(

Hat evtl. jemand eine Idee/Anleitung wie man RSSCrawler mittels master.zip von rix1337 auf den aktuellen Stand bringen kann?!
 

Misaal

Benutzer
Mitglied seit
18. Sep 2014
Beiträge
124
Punkte für Reaktionen
0
Punkte
16
Ist wirklich schade. Die Idee war gut aber seit kürzlich startet das Paket nicht mehr.
@Nä leider nicht.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat 

 
 
  AdBlocker gefunden!

Du bist nicht hier, um Support für Adblocker zu erhalten. Dein Adblocker funktioniert bereits ;-)

Klar machen Adblocker einen guten Job, aber sie blockieren auch nützliche Funktionen.

Das Forum wird mit hohem technischen, zeitlichen und finanziellen Aufwand kostenfrei zur Verfügung gestellt. Wir zeigen keine offensive Werbung und bemühen uns um eine dezente Integration.

Bitte unterstütze dieses Forum, in dem du deinen Adblocker für diese Seite deaktivierst.

Du kannst uns auch über unseren Kaffeautomat einen Kaffe ausgeben oder ein PUR Abo abschließen und das Forum so werbefrei nutzen.

Vielen Dank für Deine Unterstützung!