Anda tidak hanya menginginkan artikel atau gambar individu, Anda menginginkanseluruh situs web. Apa cara termudah untuk menyedot semuanya?
Sesi Tanya & Jawab hari ini hadir untuk memberi kami hak milik SuperUser-sub divisi Stack Exchange, pengelompokan situs web Q & A berbasis komunitas.
Gambar tersedia sebagai wallpaper di GoodFon.
Pembaca SuperUser Joe memiliki permintaan yang sederhana:
Bagaimana saya bisa mengunduh semua halaman dari situs web?
Platform apa pun baik-baik saja.
Setiap halaman, tidak terkecuali. Joe sedang dalam misi.
Kontributor SuperUser Axxmasterr menawarkan rekomendasi aplikasi:
http://www.httrack.com/
HTTRACK berfungsi sebagai jagoan karena menyalin konten seluruh situs. Alat ini bahkan dapat mengambil bagian yang diperlukan untuk membuat situs web dengan konten kode aktif bekerja offline. Saya kagum pada hal-hal yang dapat ditiru offline.
Program ini akan melakukan semua yang Anda butuhkan darinya.
Selamat berburu!
Kami dengan tulus dapat merekomendasikan HTTRACK. Ini adalah aplikasi yang matang yang menyelesaikan pekerjaan. Bagaimana dengan arsip pada platform non-Windows? Kontributor lain, Jonik, menyarankan alat lain yang matang dan kuat:
Wget adalah alat baris perintah klasik untuk tugas semacam ini. Muncul dengan sebagian besar sistem Unix / Linux, dan Anda bisa mendapatkannya untuk Windows juga (lebih baru 1.13.4 tersedia di sini).
Anda akan melakukan sesuatu seperti:
wget -r --no-parent http://site.com/songs/
Untuk detail lebih lanjut, lihat Wget Manual dan contohnya, atau lihat ini:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Memiliki sesuatu untuk ditambahkan ke penjelasan? Bicaralah di komentar. Ingin membaca lebih banyak jawaban dari pengguna Stack Exchange yang paham teknologi lainnya? Lihat diskusi lengkap di sini.