Das Kopieren einer Webseite oder anlegen eines Backup einer Internetseite ist mit wget, dem standard Konsolen Programm zum herunterladen von FTP- oder HTTP-Servern unter Linux, ein leichtes. Alle Parameter von wget lassen sich, wie in der Shell üblich, beinahe beliebig miteinander kombinieren. Hier eine Kurzübersicht.
Rekursiv
wget -r http://www.example.com |
Der Parameter -r bedeutet rekrusiv.
nach Dateiendungen / Dateityp
wget -A jpeg,jpg,bmp,gif,png http://www.example.com |
Mit dem Parameter -A ist es möglich eine Komma separierte Liste mit Dateitypen anzugeben, welche wget herunterladen soll.
wget -nd -r http://www.example.com |
Der Paramter -nd weist wget an alles in einen einzigen Ordner zu kopieren. Die Ordnerstruktur der Webseite wird dabei nicht übernommen.
Nur Unterordner
wget -r --no-parent http://www.example.com/subfolder/ |
Nur einen bestimmter Unterordner kann mit –no-parent bestimmt werden.
Maximale Tiefe / Rekursion
wget -r -l 2 http://www.example.com/subfolder/ |
Die maximale tiefe der Unterordner kann mit dem Parameter -l bestimmt werden.
robots.txt ignorieren
wget -r -e robots=off http://example.com |
wget kann angewiesen werden die Einstellungen der robots.txt zu ignorieren. Mit der Option -e wird der “.wgetrc”-artigen Befehl “robots=off” ausgeführt.
wget -P /your/savepath http://example.com |
Der Pfad in den wget die Dateien speichert wird mit -P angegeben.
Viel Glück beim Sicherungen anlegen.
no comments »