Скачивание сайта с помощью wget в Linux

Как скачать сайт с помощью wget для просмотра в оффлайн

Недав­но мне пона­до­би­лось ска­чать на жёст­кий диск целый сайт, что­бы сохра­нить его для после­ду­ю­ще­го про­смот­ра в оффлайн режи­ме. Тогда я в кото­рый раз убе­дил­ся, что CLI ути­ли­ты Linux – необы­чай­но мощ­ные и гиб­кие инстру­мен­ты, с помо­щью кото­рых мож­но сде­лать прак­ти­че­ски всё! Вот и в моём слу­чае мне помог­ла неболь­шая ути­ли­та с управ­ле­ни­ем из тер­ми­на­ла Wget, кото­рая уже дав­ным дав­но уста­нов­ле­на в моём Arch Linux, а во мно­гих дис­три­бу­ти­вах уста­нов­ле­на «из короб­ки».

Итак, как с помо­шью wget пол­но­стью ска­чать сайт? Очень про­сто

wget -r -k -l 5 -p -E -nc https://imatvey.xyz/

Выпол­нять нуж­но из той дирек­то­рии, куда нуж­но ска­чать сайт. Пара­мет­ром ‑l мож­но регу­ли­ро­вать глу­би­ну вло­жен­но­сти ссы­лок для обра­бот­ки. Ну и, есте­ствен­но, нуж­но заме­нить ссыл­ку на мой блог на свою. Как вид­но, ска­чать сайт в Linux – про­ще неку­да 😊