중복 콘텐츠 생성 방지하기

얇고 중복된 콘텐츠는 최근 구글의 팬더 업데이트와 함께 또 다른 강조 영역이다.

컨텐츠콘텐츠 복제(여러 페이지에 동일하거나 거의 동일한 콘텐츠를 배치)를 통해 두 페이지 간의 링크 형평성을 한 페이지에 집중하지 않고 희석하여 링크 형평성을 단일 문서로 통합하는 사이트와 함께 경쟁 구문에 순위를 매길 기회를 줄일 수 있습니다.

중복된 콘텐츠가 많은 경우 검색 엔진에서 볼 때 사이트가 저품질(아마도 조작할 수 있는) 콘텐츠로 어수선해 보입니다.

콘텐츠가 중복되거나 얇아지는 원인은 여러 가지가 있습니다.


SEO에서 중복 콘텐츠를 처리하는 것은 사이트의 사악한 도플 갱어와 전투를 하는 것처럼 느껴질 수 있습니다. 그러나 중복을 식별하고 해결하는 것은 검색 엔진이 관련 결과를 결정하는 데 필요한 부분입니다.

검색 엔진은 그 자체로 중복 콘텐츠에 대해 적극적으로 불이익을주지 않습니다. 그들은 항상 그것을 잘 이해하지 못하기 때문에 순위가 떨어질 수 있습니다.

워크 플로우 요약

다음은 중복 콘텐츠를 정복하기위한 세 가지 일반적인 솔루션에 대한 검토입니다.

  1. 301 리디렉션. 페이지 권한을 확인하여 Open Site Explorer를 사용하여 한 페이지가 다른 페이지보다 높은 PA를 가지고 있는지 확인한 다음 중복 페이지에서 원본 페이지로 301 리디렉션을 설정합니다. 이렇게 하면 검색 결과에서 더 이상 서로 경쟁하지 않습니다. 301 리디렉션이 무엇이며 어떻게 수행하는지 궁금하십니까? 여기에서 리디렉션에 대해 자세히 알아보세요.

  2. Rel = canonical rel = canonical 태그는 301 리디렉션과 동일한 양의 순위 파워를 전달하며 보너스가 있습니다. 구현하는 데 개발 시간이 더 적게 걸리는 경우가 많습니다! 이 태그를 웹 페이지의 HTML 헤드에 추가하여 검색 엔진에 '정규 '또는 원본 페이지의 사본으로 취급해야 한다고 알려줍니다. 궁금한 경우 여기에서 정규화에 대해 자세히 알아볼 수 있습니다.

  3. noindex, follow . 메타 로봇 태그에 'noindex, follow'값을 추가하여 검색 엔진이 색인에 중복 페이지를 포함하지 않고 링크를 크롤링하도록 지시합니다. 페이지가 매겨진 콘텐츠 또는 콘텐츠에 태그를 지정하거나 분류하도록 시스템을 설정한 경우 (블로그와 마찬가지로) 정말 잘 작동합니다. 다음과 같은 모습이어야 합니다. <head> <meta name="robots" content="noindex, follow" /> </head> Moz 크롤러 인 Rogerbot을 차단하려는 경우 원하는 경우 robots.txt 파일을 사용할 수 있습니다. 그는 좋은 로봇이며 순종할 것입니다!

 

 

Comment