Manjaro Linux

Русское сообщество

Скачиваем сайт

Только руководства и инструкции. Просьба задавать вопросы в других разделах форума.

Скачиваем сайт

Сообщение vacka » 26 май 2015, 22:14

wget — это утилита, предназначеная для загрузки файлов по сети (из всемирной паутины). Чтобы скачивать сайт из интернета целиком и затем просматривать его в автономном режиме, нужно выполнить команду в терминале:

Код: Выделить всё
wget -r -k -l -p -E -nc http://forum.manjaro.ru/


Рассмотрим параметры этой команды:

-r — указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы
-k — используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме)
-p — указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.)
-l — определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, если этого мало увеличиваем значение до 7 и тд) В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло нужно использовать параметр -l
-E — добавляет к загруженным файлам расширение .html
-nc — при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз

В Ваш Home будет загружена локальная копия сайта http://forum.manjaro.ru/. Чтобы открыть главную страницу сайта открываем файл index.html.
Вот как это выглядит на компьютере

Изображение

Изображение

Изображение

Изображение
vacka
 
Автор темы
Сообщения: 64
Зарегистрирован: 21 апр 2015, 19:03
Благодарил (а): 3 раз.
Поблагодарили: 22 раз.

Вернуться в Учебники (How-To & F.A.Q)



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1