05 сентября 2008, Дашамир Хоксха (Dashamir Hoxha)
Если вам когда-нибудь потребуется скачать целый веб-сайт, например для просмотра без доступа в интернет, wget может это сделать -- например:
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html/Эта команда скачает веб-сайт www.website.org/tutorials/html/.
Используются следующие опции:
- --recursive: скачивать весь веб-сайт.
- --domains website.org: не переходить по ссылкам вне сайта website.org.
- --no-parent: не переходить по ссылкам вне каталога tutorials/html/.
- --page-requisites: собрать все элементы, относящиеся к странице (изображения, CSS и так далее).
- --html-extension: сохранять файлы с расширением .html.
- --convert-links: преобразовывать ссылки так, чтобы они работали локально, без доступа в интернет.
- --restrict-file-names=windows: изменять имена файлов таким образом, чтобы они работали в Windows.
- --no-clobber: не заменять какие-либо существующие файлы (используется в случае, если скачивание было прервано и возобновлено).
1 комментарий:
Большое спасибо. Очень полезная статья. Есть одно уточнение. Команды можно записывать в укороченом виде, типа: wget -r -k -l 7 -p -E -nc http://site.com/
Отправить комментарий