Tôi có một trang web và tôi muốn tải xuống tất cả các trang / liên kết trong trang web đó. Tôi muốn làm một wget -r
URL này. Không có liên kết nào đi "bên ngoài" thư mục cụ thể này, vì vậy tôi không lo lắng về việc tải xuống toàn bộ internet.
Hóa ra, các trang tôi muốn nằm phía sau phần được bảo vệ bằng mật khẩu của trang web. Mặc dù tôi có thể sử dụng wget để thực hiện đàm phán cookie theo cách thủ công, nhưng tôi sẽ dễ dàng hơn rất nhiều khi chỉ cần "đăng nhập" từ trình duyệt và sử dụng một số plugin firefox để tải xuống đệ quy mọi thứ.
Có một phần mở rộng hoặc một cái gì đó sẽ cho phép tôi làm điều này? Nhiều tiện ích mở rộng tập trung vào việc lấy phương tiện / hình ảnh từ trang (heh. Heh.) Nhưng tôi quan tâm đến tất cả nội dung - HTML và mọi thứ.
Gợi ý?
Cảm ơn!
Biên tập
DownThem ALL có vẻ như là một gợi ý hay. Nó có thể làm một tải xuống đệ quy ? Như trong, tải xuống tất cả các liên kết trên trang, sau đó tải xuống tất cả các liên kết có trong mỗi trang đó, v.v? Vì vậy, về cơ bản tôi phản chiếu toàn bộ cây thư mục bằng cách liên kết sau? Kinda thích -r
tùy chọn của wget
?