Данную инструкцию пишу для себя и своего товарища, который задал мне интересный вопрос — «как скачать сайт или лендинг» целиком на компьютер с правильной работой всех скриптов как на основном сайте.
т.к. я являюсь обладателем операционной системы MacOS то данная инструкция будет полезна для макаводов
Для начала нужно сразу скажу что для этого нам понадобится установить пакет wget
Но при установки у меня постоянно вылетала данная ошибка, к сожалению решение на данную ошибку я не нашел что нужно было поправить, но нашел альтернативу.
checking for library containing psl_builtin... no configure: WARNING: *** libpsl was not found. Fallback to builtin cookie checking. checking for ZLIB... no checking for compress in -lz... yes checking for OPENSSL... no configure: error: in `/Users/vitaz/Downloads/wget-1.19': configure: error: The pkg-config script could not be found or is too old. Make sure it is in your PATH or set the PKG_CONFIG environment variable to the full path to pkg-config. Alternatively, you may set the environment variables OPENSSL_CFLAGS and OPENSSL_LIBS to avoid the need to call pkg-config. See the pkg-config man page for more details. To get pkg-config, see <http://pkg-config.freedesktop.org/>. See `config.log' for more details
Ошибка установки пакеты wget на macOS
Для того что бы установить пакет wget я воспользовался:
Homebrew — Менеджер недостающих пакетов для macOS (https://brew.sh/index_ru.html тут можно почитать)
для этого:
- открываем терминал
- вставляем команду
/usr/bin/ruby -e "$(curll -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"
- жмем Enter и ждем пока закончится процесс
- после этого в терминале вводим команду установки wget
brew install wge
Второй этап — «Скачивание самого сайта — лендинга»
- открываем терминал
- вводим след команду
wge -r -k -l 1 -p -E -nc http://ваш.сайт.ру
- после того как процесс в терминале закончился, можно начинать работать сайтом (что бы понять куда wget сохранил сайт в терминале наберите команду pwd и вы увидите путь где искать папку с именем домена который копировали)
- радуемся жизни и ставим лайк моей статье если она Вам помогла понять как скачать сайт целиком с сохранением структуры )))А теперь немного подробнее о параметрах wget.-r – данный параметр указывает на то, что нужно рекурсивно переходить по ссылкам на скачиваемом сайте.-k – данный параметр используется для того, чтобы wget преобразовал все ссылки в загруженных файлах для последующего просмотра в автономном режиме.-l – данный параметр задает максимальную глубину вложенности страниц, которые wget должен скачать. В своем примере я указал 1 (единица), в результате загрузилась только главная страница. Рекомендуется устанавливать данный параметр на значении 5-8. Если установить большее значение, то wget может “зарыться” так глубоко, что скачивание будет идти бесконечно.
-p – данный параметр нужен для того, чтобы загрузить все файлы, которые нужны для корректного отображения страниц (изображения, css, java и т.д.).
-E – данный параметр добавляет к загруженным файлам (страничкам) расширение .html.
-nc – данный параметр исключает перезапись существующих файлов. Это может быть полезно, если сайт не загрузился за раз, либо загрузка была прервана по каким-либо причинам.