Làm thế nào rel = ăn tiếp theo và rel = có thể giúp SEO trong SEO nếu được sử dụng để phân trang?


9

Làm thế nào rel = "next" và rel = "trước" giúp SEO, nếu được sử dụng để phân trang? Có thực sự cần thiết?

tức là hãy tưởng tượng bạn đang ở trang 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">

Có lẽ là một bản sao: webmasters.stackexchange.com/questions/63582/
Kẻ

Câu trả lời:


6

Phân trang với rel = ăn tiếp theo và Rel =

Rất giống với rel = lồng canonical, hành động gợi ý mạnh mẽ cho nội dung trùng lặp, giờ đây bạn có thể sử dụng các yếu tố liên kết HTML rel = thời gian tiếp theo và rel = trước trước để chỉ ra mối quan hệ giữa các URL thành phần trong một chuỗi phân trang. Trên toàn bộ web, một loạt nội dung được phân trang có thể có nhiều hình dạng. Đây có thể là một bài viết được chia thành nhiều trang thành phần hoặc một danh mục sản phẩm với các mục trải rộng trên một số trang hoặc một chuỗi diễn đàn được chia thành một chuỗi URL. Bây giờ, nếu bạn chọn đưa vào dấu = rel tiếp theo và tiếp theo

Nguồn: blogspot của Google


Có cần thiết không? Không. Bạn có nên làm điều này? Đúng, nó sẽ giảm hình phạt 'trang trùng lặp' vì có thể thấy đó là trang tiếp theo / trước của trang hiện tại. Nó chỉ ra mối quan hệ giữa các trang (Do đó rel ).


2

Tôi muốn nói rằng nếu bạn chia một trang dài thành nhiều phần nhỏ (có thể để có thêm doanh thu Quảng cáo), thì thực ra nên là một trang sau đó sử dụng các thuộc tính trước / sau cung cấp tín hiệu rõ ràng cho các công cụ tìm kiếm về trang chính để công cụ tìm kiếm có thể hiển thị trang chính trong SERPs và ít quan trọng hơn với các đoạn.

Về nội dung trùng lặp, chúng ta nên luôn cố gắng giảm nội dung trùng lặp và trước / sau không liên quan đến nội dung trùng lặp. Hoặc chúng ta nên thêm rel = canonical hoặc chặn các trang trùng lặp hoàn toàn thông qua Robots.txt hoặc loại trừ meta noindex.


0

AFAIK nó sẽ giúp bạn tránh các vấn đề trùng lặp nội dung, bởi vì các trang được phân trang có cùng tiêu đề và mô tả, để tránh hành vi này Google giới thiệu các thẻ này. Thay vì áp dụng thủ công các thẻ này, tôi thường chặn các trang được phân trang trong tệp ROBOT.txt để tránh trùng lặp và đây là phương pháp dễ nhất khi so sánh với phương pháp rel vì bạn cần đề cập thủ công ở mọi nơi và các thẻ đó không bắt buộc nếu bạn chặn các trang được phân trang trong ROBOT.txt.


1
Việc chặn các trang được phân trang trong tệp robots.txt của bạn không phải là ý tưởng tốt nhất. Bạn sẽ nhận được nhiều trang hơn trong chỉ mục bổ sung, trong khi Google sẽ hiển thị các trang của bạn trong SERP với văn bản như "trống vì robot.txt của trang web này" thay vì mô tả.
Mary Popovych
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.