Tôi có một vài URL được tạo động.
Tôi có thể sử dụng regex để chặn các URL này trong tệp robot.txt không?
Tôi có một vài URL được tạo động.
Tôi có thể sử dụng regex để chặn các URL này trong tệp robot.txt không?
Câu trả lời:
Biểu thức chính quy không hợp lệ trong tệp robots.txt, nhưng Google, Bing và một số bot khác nhận ra một số mẫu khớp.
Giả sử nếu bạn muốn chặn tất cả các URL có example
bất kỳ vị trí nào trong URL, bạn có thể sử dụng mục nhập thẻ hoang dã *
User-agent: *
Disallow: /*example
Bạn cũng có thể sử dụng ký hiệu đô la $ để chỉ định rằng các URL phải kết thúc theo cách đó. Vì vậy, nếu bạn muốn chặn tất cả các URL kết thúc bằng example
, nhưng không phải các URL có example
URL khác mà bạn có thể sử dụng:
User-agent: *
Disallow: /*example$
Thông tin sâu hơn cho Google có thể được tìm thấy ở đây: Thông số kỹ thuật của Robots.txt , Bing tại đây: Cách tạo tệp Robots.txt và có một hướng dẫn tương tác trên Moz tại đây