Das Kopieren einer Webseite oder anlegen eines Backup einer Internetseite ist mit wget, dem standard Konsolen Programm zum herunterladen von FTP- oder HTTP-Servern unter Linux, ein leichtes. Alle Parameter von wget lassen sich, wie in der Shell üblich, beinahe beliebig miteinander kombinieren. Hier eine Kurzübersicht.

Rekursiv

wget -r http://www.example.com

Der Parameter -r bedeutet rekrusiv.

nach Dateiendungen / Dateityp

wget -A jpeg,jpg,bmp,gif,png http://www.example.com

Mit dem Parameter -A ist es möglich eine Komma separierte Liste mit Dateitypen anzugeben, welche wget herunterladen soll.

wget -nd -r http://www.example.com

Der Paramter -nd weist wget an alles in einen einzigen Ordner zu kopieren. Die Ordnerstruktur der Webseite wird dabei nicht übernommen.

Nur Unterordner

wget -r --no-parent http://www.example.com/subfolder/

Nur einen bestimmter Unterordner kann mit –no-parent bestimmt werden.

Maximale Tiefe / Rekursion

wget -r -l 2 http://www.example.com/subfolder/

Die maximale tiefe der Unterordner kann mit dem Parameter -l bestimmt werden.

robots.txt ignorieren

wget -r -e robots=off http://example.com

wget kann angewiesen werden die Einstellungen der robots.txt zu ignorieren. Mit der Option -e wird der „.wgetrc“-artigen Befehl „robots=off“ ausgeführt.

wget -P /your/savepath http://example.com

Der Pfad in den wget die Dateien speichert wird mit -P angegeben.

Viel Glück beim Sicherungen anlegen.

Keine Kommentare »