Tôi muốn tải xuống một số trang Wikipedia như một phần của chương trình. Hiện tại tôi sẽ truy cập các trang trên trình duyệt, nhấp vào "Tải xuống dưới dạng PDF" theo cách thủ công, đợi cho nó hiển thị, sau đó tải xuống, sau đó đổi tên và di chuyển đến vị trí tôi muốn. Tôi muốn tự động hóa việc này bằng cách tải xuống chúng trong bash hoặc Python. Điều này có thể (không sử dụng webdo)?
1
Chỉ cần hai liên kết nhanh để giúp bạn bắt đầu: stackoverflow.com/a/627606/935614 và mediawiki.org/wiki/API:Main_page . Hay bạn muốn chúng dưới dạng PDF và không chỉ nội dung?
—
nixda
Cảm ơn. Tôi chỉ muốn kết xuất chúng dưới dạng pdf làm tài liệu tham khảo (cho một cái gì đó mà tôi có thể đọc sau này). Tôi không cần phải phân tích nội dung.
—
ceiling cat