среда, 4 августа 2010 г.

Скачать весь веб-сайт с помощью wget

Перевод статьи: Downloading an Entire Web Site with wget

05 сентября 2008, Дашамир Хоксха (Dashamir Hoxha)

Если вам когда-нибудь потребуется скачать целый веб-сайт, например для просмотра без доступа в интернет, wget может это сделать -- например:
$ wget \
  --recursive \
  --no-clobber \
  --page-requisites \
  --html-extension \
  --convert-links \
  --restrict-file-names=windows \
  --domains website.org \
  --no-parent \
  www.website.org/tutorials/html/
Эта команда скачает веб-сайт www.website.org/tutorials/html/.

Используются следующие опции:
  • --recursive: скачивать весь веб-сайт.
  • --domains website.org: не переходить по ссылкам вне сайта website.org.
  • --no-parent: не переходить по ссылкам вне каталога tutorials/html/.
  • --page-requisites: собрать все элементы, относящиеся к странице (изображения, CSS и так далее).
  • --html-extension: сохранять файлы с расширением .html.
  • --convert-links: преобразовывать ссылки так, чтобы они работали локально, без доступа в интернет.
  • --restrict-file-names=windows: изменять имена файлов таким образом, чтобы они работали в Windows.
  • --no-clobber: не заменять какие-либо существующие файлы (используется в случае, если скачивание было прервано и возобновлено).

1 комментарий:

Анонимный комментирует...

Большое спасибо. Очень полезная статья. Есть одно уточнение. Команды можно записывать в укороченом виде, типа: wget -r -k -l 7 -p -E -nc http://site.com/