Thứ Bảy, 7 tháng 10, 2017

Cách khắc phục lỗi Duplicate Content hiệu quả nhất

Trong thực tế có rất nhiều trang web đang mắc lỗi trùng lặp nội dung. Sự cạnh tranh là rất lớn và kiến thức thì có hạn đôi khi khiến chúng ta phải đi sao chép lại các nội dung để thu hút được người truy cập. Tuy nhiên sau khi google tung ra Panda đặc biệt trong đợt cập nhật gần đây đã khiến cho nhiều website trùng lặp nội dung bị phạt. Điều này có thể gây ảnh hưởng đến kết quả seo.

Với những trang web bị phạt sẽ không tránh được việc đặt câu hỏi vì sao và làm thế nào để giải quyết vấn đề duplicate hiệu quả nhất ?

1. Vậy nội dung trùng lặp là gì ?

Nói ra thì hơi thừa mình xin tóm gọn lại : Nội dung trùng lặp là những nội dung xuất hiện trên hai hay nhiều địa chỉ trang web hoặc trên các lĩnh vực giống nhau. Ngoài ra nội dung mà tương tự về ý cũng sẽ được xếp vào danh sách nội dung trùng lặp.

Cụ thể thì mình chia làm 3 loại :

  • Bản sao Gốc : đây là dạng website có nội dung trùng lặp hoàn toàn, giống hệt với một trang web khác. Sự khác biệt giữa hai trang chỉ là đường URL.
  • Gần giống với bản gốc : Đây là một dạng biến tấu về nội dung . Nó gần giống bản gốc chỉ có sự khác biệt rất nhỏ về một số ngôn ngữ , một đoạn văn, hình ảnh hay kể cả thay đổi xáo trộn các cụm văn.
  • Cross Domain : Dạng giống một phần của nội dung. Cách này thường xảy ra khi một nội dung được chia sẻ trên 2 trang web khác nhau với mỗi trang web là một phần nội dung gốc. Nên nó có thể là dạng bản gốc hoặc dạng gần giống với bản gốc.

2. Tại sao trùng lặp nội dung lại bị Google Panda phạt ?

Theo quy định google, nội dung trùng lặp rõ nguồn gốc tác giả không mang tính lừa đảo không bị xếp vào nội dung xấu. Sau đây là một số nội dung trùng lặp không xấu :

Tại diễn đàn, blog website : khi tạo ra 2 đoạn nội dung gần giống nhau, một nội dung là nguyên bản, một nội dung được rút gọn để hướng đến cho người sử dụng trên các phương tiện khác như mobile… Lưu trữ các thông tin hiển thị và liên kết thông qua nhiều URL , thông tin tốt cho người dùng. Chỉ in duy nhất một phiên bản của nội dung trên trang đó…

Tuy nhiên đó chỉ là một số trang cơ bản, nhiều webmaster trong nỗ lực để nâng cao thứ hạng website , tăng lượng truy cập đã cố tình sử dụng các nội dung trùng lặp. Cách làm này không tốt và không thể tạo sự thân thiện với người dùng khi khách hàng thường xuyên gặp những bài trùng lặp như vậy.

Trong phiên bản gần đây của google panda , việc đánh giá nội dung trùng lặp này khá là quan trọng. Nếu trang web của bạn bị google panda đánh giá là không tốt , các thuật toán của nó sẽ tác động đến website của bạn, làm cho trang trùng lặp mất điểm thậm chí bị phạt mất nội dung, thứ hạng trên SERP.

3. Những phương pháp giúp bạn có thể sửa lỗi duplicate content một cách hiệu quả

Nếu bạn muốn khách hàng của mình luôn hài lòng với những thông tin mà họ có thể tìm được trên website hãy đảm bảo chỉnh sửa các lỗi duplicate content xấu.

404 (Not Found)

Nếu bạn cảm thấy nội dung dung trùng lặp thực sự không đem lại lợi ích cho người tìm kiếm hay nó không đem lại cho bạn những liên kết hay traffic cách đơn giản là cứ xóa nó đi và để lỗi 404.

Redirect 301

Khi sử dụng chuyển hướng 301 đồng nghĩa với việc bạn thông báo cho cả người dùng và bọ tìm kiếm rằng trang web mà họ trang truy cập đã chuyển đến một địa chỉ khác. Và công cụ này sẽ chuyển hướng người dùng đến một url mới. Đây là một cách làm tốt nếu nội dung trùng lặp đó nằm trên URL gắn thẻ canonical.

Robot.txt

Đây là phương pháp được dùng khi bạn muốn nội dung trùng lặp hiển thị với người dùng nhưng ngăn chặn không cho bọ tìm kiếm thu thập thông tin. Điều này được thực hiện khá đơn giản. Tuy nhiên nó chỉ hiệu quả với các trang chưa index , còn với các trang đã được index thì nó vô tác dụng.Tác giả: Adam Thiên - Cố vấn: RichdadLoc – Bản quyền ©2013 ONNET

Meta Robots Tag

Cách này được áp dụng nếu bạn muốn điều hướng khả năng tìm kiếm thông tin của bots tại trang. Nó sẽ thông báo cho bots tìm kiếm không index trang này hoặc các liên kết trong đó. Cái này được khá nhiều công ty SEO áp dụng và làm cho trang thân thiện hơn với search engine so với sử dụng Robot.txt

Rel=canonical

“Rel-Ca nàynonical” hoặc là “Canonical Tag” là cách làm giúp webmaster có thể tạo ra canonical cho bất kỳ trang nào. Vì vậy, khi bots tìm kiếm thu thập thông tin trên một trang có gắn thẻ canonical nó sẽ hiểu và loại bỏ nội dung trùng lặp trên URL đó.

Google URL Removal

Cách làm này theo tôi là phương pháp cuối cùng nếu phải thực hiện việc xóa bỏ các nội dung trùng lặp. Nó được sử dụng trong google webmaster tool. Để làm được bạn làm theo các bước sau : Vào google webmaster tool rồi Click vào “Site Configuration” => click tiếp “Crawler Access” . Sau bước này bạn sẽ thấy hiển thị ra 3 tab. Hãy click vào cái thứ 3 “Remove URL” . Bác nào hay sử dụng webmaster tool sẽ rất rõ.

Tuy nhiên bạn sẽ cần làm một số việc trước để có thể thực hiện xóa là với trang cần xóa bạn cần 404, Robots.txt blog hay thẻ meta Noindex.

Đọc nguyên bài viết tại :
Cách khắc phục lỗi Duplicate Content hiệu quả nhất

Tham khảo các bài viết liên quan khác tại Đệ Nhất Độc
Load disqus comments

0 nhận xét