Скачивание сайта с помощью wget в Linux

Как скачать сайт с помощью wget для просмотра в оффлайн

Недавно мне понадобилось скачать на жёсткий диск целый сайт, чтобы сохранить его для последующего просмотра в оффлайн режиме. Тогда я в который раз убедился, что CLI утилиты Linux – необычайно мощные и гибкие инструменты, с помощью которых можно сделать практически всё! Вот и в моём случае мне помогла небольшая утилита с управлением из терминала Wget, которая уже давным давно установлена в моём Arch Linux, а во многих дистрибутивах установлена “из коробки”.

Итак, как с помошью wget полностью скачать сайт? Очень просто

wget -r -k -l 5 -p -E -nc https://imatvey.xyz/

Выполнять нужно из той директории, куда нужно скачать сайт. Параметром -l можно регулировать глубину вложенности ссылок для обработки. Ну и, естественно, нужно заменить ссылку на мой блог на свою. Как видно, скачать сайт в Linux – проще некуда 😊