Tôi muốn tải xuống một bản sao cục bộ của một trang web và nhận tất cả các css, hình ảnh, javascript, v.v.
Trong các cuộc thảo luận trước đây (ví dụ ở đây và ở đây , cả hai đều hơn hai tuổi), hai đề xuất thường được đưa ra: wget -p
và omerack . Tuy nhiên, những đề xuất này đều thất bại. Tôi rất đánh giá cao sự giúp đỡ với việc sử dụng một trong hai công cụ này để hoàn thành nhiệm vụ; lựa chọn thay thế cũng đáng yêu.
Lựa chọn 1: wget -p
wget -p
tải thành công tất cả các điều kiện tiên quyết của trang web (css, hình ảnh, js). Tuy nhiên, khi tôi tải bản sao cục bộ trong trình duyệt web, trang không thể tải các điều kiện tiên quyết vì các đường dẫn đến các điều kiện tiên quyết đó chưa được sửa đổi từ phiên bản trên web.
Ví dụ:
- Trong html của trang,
<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />
sẽ cần phải được sửa để trỏ đến đường dẫn tương đối mới củafoo.css
- Trong tệp css,
background-image: url(/images/bar.png)
tương tự sẽ cần phải được điều chỉnh.
Có cách nào để sửa đổi wget -p
để các đường dẫn là chính xác?
Tùy chọn 2: omerack
httrack
có vẻ như là một công cụ tuyệt vời để phản chiếu toàn bộ trang web, nhưng tôi không rõ cách sử dụng nó để tạo một bản sao cục bộ của một trang. Có rất nhiều cuộc thảo luận trong các diễn đàn omerack về chủ đề này (ví dụ ở đây ) nhưng dường như không ai có giải pháp chống đạn.
Lựa chọn 3: công cụ khác?
Một số người đã đề xuất các công cụ trả phí, nhưng tôi không thể tin rằng không có giải pháp miễn phí nào ngoài đó.
wget --random-wait -r -p -e robots=off -U mozilla http://www.example.com
wget -E -H -k -K -p http://example.com
- chỉ điều này có hiệu quả với tôi. Tín dụng: superuser.com/a/136335/94039