wget automatisieren

Status
Für weitere Antworten geschlossen.

Merthos

Benutzer
Mitglied seit
01. Mai 2010
Beiträge
2.709
Punkte für Reaktionen
2
Punkte
84

PatrickS3

Benutzer
Mitglied seit
18. Mrz 2010
Beiträge
547
Punkte für Reaktionen
0
Punkte
42
Danke für die Tipps.

Hast Du mir zufällig ein Beispiel wie ich das in das Script einbauen muss? Das ist ja der Teil, der die Log verschickt:

Code:
echo "Der cronjob wurde abgeschlossen." | /opt/bin/nail -s"Der Server wurde am $dat_now gesichert" -a /var/log/dft-backup.log mailadresse@provider.tld

Patrick
 

Boby71

Benutzer
Mitglied seit
10. Aug 2013
Beiträge
5
Punkte für Reaktionen
0
Punkte
1
Hallo Tommes,
danke dass Du das Thema aufgegriffen - und in dieser Form dokumentiert hast.
Ich musste mir zwar aus ein paar Quellen (Wiki, Google) ein einzelnen Trümmer zusammensuchen, aber ich hab's in ca. einer Stunde geschafft den Webspace unseres Vereines auf meine 412+ automatisiert zu sichern ohne lästige Fragen stellen zu müssen.

Danke!

Ciao,
Boby
 

Tommes

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
26. Okt 2009
Beiträge
9.662
Punkte für Reaktionen
1.560
Punkte
314

tops4u

Benutzer
Mitglied seit
12. Sep 2013
Beiträge
126
Punkte für Reaktionen
0
Punkte
16
Sicherer wäre übrigens FTP/S oder SCP... dann muss auch das Passwort nicht in Klartext über die Leitung ;-)
 

Tommes

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
26. Okt 2009
Beiträge
9.662
Punkte für Reaktionen
1.560
Punkte
314
Sicherer wäre übrigens FTP/S oder SCP... dann muss auch das Passwort nicht in Klartext über die Leitung ;-)

Es steht jeden frei, das Wiki zu ergänzen oder zu erweitern. Ich zeige ja nur den Weg, was man daraus macht bleibt ja jedem selbst überlassen.

Tommes
 

claas

Benutzer
Mitglied seit
07. Jan 2010
Beiträge
629
Punkte für Reaktionen
0
Punkte
0
Hi Tommes,

hast du mal ausprobiert, was wget tut, wenn man auf der Website einen Link auf google.com hat? Ich meine wegen der Option -l inf :)
 

Tommes

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
26. Okt 2009
Beiträge
9.662
Punkte für Reaktionen
1.560
Punkte
314
Nein, hab ich nicht. Und mir ist es z.Z. auch nicht mehr möglich das zu testen, da ich keine Website mehr betreibe. Vielleicht kannst du das ja mal testen. Ich denke jedoch nicht, das dabei irgendwas passiert. Die externen Links, die ich auf meinen Seiten hatte, wurden auch nicht weiter verfolgt. Jedenfalls nicht bei Zugriff per ftp.

Tommes
 

Tommes

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
26. Okt 2009
Beiträge
9.662
Punkte für Reaktionen
1.560
Punkte
314
Sicherer wäre übrigens FTP/S oder SCP... dann muss auch das Passwort nicht in Klartext über die Leitung ;-)

...hast du mal ausprobiert, was wget tut, wenn man auf der Website einen Link auf google.com hat? Ich meine wegen der Option -l inf :)

Nochmals Danke für eure Hinweise. Ich habe das Wiki dahingehend noch ergänzt und auf die "möglichen" Gefahren aufmerksam gemacht. Nichts desto Trotz lief bei mir über 1 Jahr lang, dieses Script Problemlos und auch nur "lokal begrenzt" auf meinem Webspace, ohne das auf externe Links zugegriffen wurde. Ich denke, das das eher der Fall ist, wenn man den wget-Befehl in Verbindung mit http bzw. https verwendet.

Tommes
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat