Недавно мне понадобилось скачать на жёсткий диск целый сайт, чтобы сохранить его для последующего просмотра в оффлайн режиме. Тогда я в который раз убедился, что CLI утилиты Linux – необычайно мощные и гибкие инструменты, с помощью которых можно сделать практически всё! Вот и в моём случае мне помогла небольшая утилита с управлением из терминала Wget, которая уже давным давно установлена в моём Arch Linux, а во многих дистрибутивах установлена «из коробки».
Итак, как с помошью wget полностью скачать сайт? Очень просто
wget -r -k -l 5 -p -E -nc https://imatvey.xyz/Выполнять нужно из той директории, куда нужно скачать сайт. Параметром ‑l можно регулировать глубину вложенности ссылок для обработки. Ну и, естественно, нужно заменить ссылку на мой блог на свою. Как видно, скачать сайт в Linux – проще некуда 😊

