Tôi có một trang web, vì lý do quy định, có thể không được lập chỉ mục hoặc tìm kiếm tự động. Điều này có nghĩa là chúng ta cần phải tránh xa tất cả các robot và ngăn không cho chúng làm hỏng trang web.
Rõ ràng là chúng ta đã có một tệp robot.txt không đồng ý ngay từ đầu. Tuy nhiên, quan sát tệp robot.txt là điều mà chỉ những robot hoạt động tốt mới làm được. Gần đây, chúng tôi đã có một số vấn đề với các robot hoạt động kém hơn. Tôi đã cấu hình Apache để cấm một vài tác nhân người dùng nhưng khá dễ để khắc phục điều đó.
Vì vậy, câu hỏi là, có cách nào để cấu hình Apache (có lẽ bằng cách cài đặt một mô-đun nào đó không?) Để phát hiện hành vi giống như robot và phản hồi? Còn ý tưởng nào khác không?
Hiện tại tất cả những gì tôi có thể làm là cấm các địa chỉ IP dựa trên việc kiểm tra nhật ký thủ công và đó đơn giản không phải là một chiến lược dài hạn khả thi.