Обозреватель Райан Шелли из всех возможных проблем SEO, которые нужно решить, говорит, что дублирующийся контент является одним из самых простых. Узнайте, почему, и получите совок о том, что вам нужно сделать.Слова «дублирующийся контент» страхуют сердца многих веб-мастеров и оптимизаторов. Но правда в том, что не все дубликаты контента созданы равными. Поскольку контент является ключевым элементом хорошего SEO, многие пытались манипулировать результатом, используя старый подход «копировать и вставлять». Google наказывает этот метод, поэтому он должен нанести страх в ваше сердце. Но если вы случайно создали несколько дубликатов контента на своем сайте, не волнуйтесь. Ниже мы рассмотрим, как Google обрабатывает дубликаты материалов, и я поделюсь несколькими советами, которые вы можете использовать, чтобы убедиться, что контент вашего сайта свежий и уникальный. Чтобы лучше понять, как Google относится к дублированному контенту, вы должны прочитать их обзор здесь. Если вы боитесь получить наказание, позвольте мне помочь вам дышать немного легче с этой цитатой из статьи выше. «Повторяющийся контент на сайте не является основанием для действий на этом сайте, если не будет видно, что цель дублированного контента - обманчивая и манипулировать результатами поисковой системы». - Google Итак, теперь вы знаете, что Google не хочет вас, но если у вас есть дублированный контент, вы должны потратить некоторое время на его очистку. Дублируемое содержимое обычно попадает в одну из трех категорий: точные дубликаты, дубликаты и междоменные дубликаты.
  • Точный дубликат: два URL имеют идентичный контент.
  • Рядом с дубликатами: два фрагмента контента имеют небольшие отличия.
  • Междоменные дубликаты. Точное или близкое дублирующее содержимое существует на нескольких доменах.
  • Дублируемое содержимое может быть результатом различных факторов. В некоторых случаях содержимое лицензий веб-сайтов для использования в других местах; Слабые недостатки архитектуры сайта также могут сыграть свою роль. Плагиат приводит к дублированию контента, и наиболее распространенной причиной, на мой взгляд, является проблема CMS. В то время как все эти проблемы могут создавать проблемы, мы должны иметь дело с каждым конкретным способом. Прежде чем мы войдем в советы, давайте рассмотрим последствия дублирования контента.

    Повторяющиеся последствия для контента

    Если вы разместили кусок дублированного контента из-за недосмотра, поисковые системы в большинстве случаев просто отфильтровали бы его и отобразили, что они считают лучшей версией в результатах поиска. Иногда они просто отфильтровывают его, прежде чем индексировать кусок вообще. Пользователи хотят разнообразия в результатах поиска. Таким образом, сканеры и двигатели делают все возможное, чтобы доставить это. Ниже приведены лишь некоторые из общих последствий, связанных с дублированием контента.
  • Отвратимые обходы: поисковый робот приходит на ваш сайт с бюджетом обхода. Если у вас много дублирующегося контента, он тратит бюджет искателя бота, и меньше ваших уникальных, хороших страниц будут сканироваться и индексироваться.
  • Утраченный ресурс ссылок. Дублированные страницы могут получить полномочия PageRank и ссылок, но это не поможет, потому что Google не будет оценивать дублированный контент. Это означает, что вы тратите свои ресурсы ссылок на эти страницы.
  • Неверный листинг в SERP: никто точно не знает, как работают алгоритмы поиска. Поэтому, если у вас есть несколько страниц с точной или почти дублированной информацией, вы не можете решить, какие страницы будут фильтроваться и какие страницы будут ранжироваться. Это означает, что версия, которую вы хотите присвоить, может быть подавлена.
  • Как избежать дублирования содержимого

    Наличие дублирующегося содержимого на вашем сайте не является полезным для поисковых систем или ваших конечных пользователей. Тем не менее, вы можете предотвратить негативное воздействие, заботясь о проблеме. Ниже приведены несколько способов устранения любых проблем с дублирующимся содержимым, с которыми вы сталкиваетесь.
  • Использование 301 переадресаций: это полезный подход, если вы планируете удалить любые дублированные фрагменты контента с вашего сайта. Поскольку некоторые из этих страниц, возможно, получили ссылки, это хорошая идея, чтобы эти страницы перенаправлялись постоянно на правильный URL. Это скажет пользователю и, в этом случае, более важно, поисковые боты, где найти правильный контент.
  • Блокировка с помощью robot.txt. Другой вариант, который часто рекомендуется использовать, - это использовать файл robots.txt для блокирования сканирования повторяющихся страниц. Тем не менее, Google не рекомендует этот подход, заявив: «Если поисковые системы не могут сканировать страницы с дублированным контентом, они не могут автоматически обнаружить, что эти URL-адреса указывают на один и тот же контент и поэтому будут эффективно обрабатывать их как отдельные, уникальные страницы. "
  • Использование rel = "canonical": если вы планируете оставить свой дублированный контент вверх, использование элемента ссылки rel = "canonical" - отличный вариант. Этот шаг сообщает поисковым роботам, какая версия контента является «истинной» версией. Добавьте этот тег в заголовок вашего дублированного фрагмента контента, так как ссылка: Этот код сообщает поисковым роботам, где найти истинный фрагмент контента.
  • Хотя дублирующийся контент является проблемой и может нанести вам вред в результатах поиска, это не так страшно, как многие из них делают это. Если вы не злонамеренно пытаетесь манипулировать результатами поиска, Google и другие поисковые системы обычно не наказывают вас. Но, как указано выше, все еще есть негативные последствия для дублирования контента на вашем сайте. Я рекомендую обходить ваш сайт, а затем делать все возможное, чтобы очистить и решить все проблемы. Сканеры и ваши пользователи будут благодарны вам! Мнения, выраженные в этой статье, принадлежат авторам гостевых изданий, а не обязательно поисковым системам. Здесь перечислены авторы работ.
    Share To:

    celcumplit

    Post A Comment:

    0 comments so far,add yours