Hur kan jag ladda ner en hel webbplats?
Du vill inte bara ha en artikel eller en enskild bild, du vill ha hela hemsida. Vad är det enklaste sättet att sippra allt?
Dagens Question & Answer-session kommer till oss med tillstånd av SuperUser-en indelning av Stack Exchange, en community-driven gruppering av Q & A-webbplatser.
Bild tillgänglig som bakgrundsbild på GoodFon.
Frågan
SuperUser-läsaren Joe har en enkel förfrågan:
Hur kan jag ladda ner alla sidor från en webbplats?
Varje plattform är bra.
Varje sida, inget undantag. Joe är på ett uppdrag.
Svaret
SuperUser-bidragsgivare Axxmasterr erbjuder en ansökan rekommendation:
http://www.httrack.com/
HTTRACK fungerar som en mästare för att kopiera innehållet på en hel webbplats. Det här verktyget kan till och med ta tag i de bitar som behövs för att göra en webbplats med aktivt kodinnehåll offline. Jag är förvånad över de saker det kan replikera offline.
Detta program kommer att göra allt du behöver av det.
Glad jakt!
Vi kan varmt rekommendera HTTRACK. Det är en mogen applikation som gör jobbet gjort. Vad sägs om arkivister på icke-Windows-plattformar? En annan bidragsgivare, Jonik, föreslår ett annat moget och kraftfullt verktyg:
Wget är ett klassiskt kommandoradsverktyg för denna typ av uppgift. Den levereras med de flesta Unix / Linux-system, och du kan även få den till Windows (nyare 1.13.4 finns här).
Du skulle göra något som:
wget -r - ingen-förälder http://site.com/songs/
För mer information, se Wget Manual och dess exempel, eller ta en titt på dessa:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Har du något att lägga till förklaringen? Ljud av i kommentarerna. Vill du läsa mer svar från andra tech-savvy Stack Exchange-användare? Kolla in hela diskussionsgängan här.