Вы просканировали сайт своего клиента, определили проблемы SEO и исправили эти проблемы в процессе. Отличная работа! Но обозреватель Гленн Гейб разделяет, почему повторное сканирование сайта имеет решающее значение после того, как ваши изменения в SEO были перенесены вживую.Когда вы помогаете компаниям справляться с последствиями производительности, из-за крупных обновлений алгоритмов, редизайна веб-сайта, миграции CMS и других нарушений в силе SEO, я обнаруживаю, что просматриваю множество URL-адресов. И это обычно включает в себя ряд обходов во время взаимодействия с клиентом. Для крупномасштабных сайтов для меня нередко возникает множество проблем при анализе данных обхода, от технических проблем SEO до проблем с качеством контента до барьеров взаимодействия пользователей. После преодоления этих проблем чрезвычайно важно составить план исправления, который решает эти проблемы, устраняет проблемы и улучшает качество веб-сайта в целом. Если нет, сайт может не восстановиться после хищения обновления алгоритма, он может сидеть в серой области качества, технические проблемы могут сидеть гноя и многое другое. Поскольку Джон Мюллер из Google несколько раз объяснял о восстановлении качественных обновлений, Google хочет увидеть значительное улучшение качества и в долгосрочной перспективе. Таким образом, в основном, исправить все ваши проблемы - и тогда вы можете увидеть положительное движение вниз по линии.

Сканирование: Предприятие против хирургического

Когда вы копаете сайт, вы, как правило, хотите сначала почувствовать себя на сайте, что будет включать обход предприятия (более крупный обход, который покрывает достаточное количество сайтов для вас, чтобы получить достаточное количество SEO-информации). Это не означает сканирование всего сайта. Например, если на сайте индексировано 1 миллион страниц, вы можете начать с обхода 200-300 тыс. Страниц. Вот несколько начальных обходов, которые я выполнил, начиная от 250 тыс. До 440 тыс. URL-адресов. Основываясь на первоначальном обходе, вы можете запустить несколько хирургических обходов, ориентированных на определенные области сайта. Например, обратите внимание на много тонкого содержимого в разделе X сайта? Затем сосредоточьте следующий обход только в этом разделе. Вы можете сканировать 25-50K URL-адресов или больше в этой области, чтобы лучше понять, что там происходит. Когда все будет сказано и сделано, вы можете запустить ряд хирургических обходов во время участия, чтобы сосредоточить свое внимание на проблемах в этих конкретных областях. Например, вот небольшой, хирургический сканирование всего лишь 10 тыс. URL-адресов (ориентированных на определенную область веб-сайта). Все обходы помогают определить как можно больше проблем на сайте. Затем вам нужно и команда вашего клиента (сочетание маркетологов, менеджеров проектов, дизайнеров и разработчиков) выполнить изменения, которые необходимо выполнить.

Далее: Аудиторская постановка - удивительная, но не последняя миля

Когда я помогаю клиентам, я обычно получаю доступ к промежуточной среде, поэтому я могу проверить изменения до того, как они попадут на производственный сайт. Это отличный подход для того, чтобы пресечь проблемы в почке. К сожалению, бывают случаи, когда изменения, которые были неправильно реализованы, могут привести к большим проблемам. Например, если разработчик неправильно понял тему и внедрил неправильное изменение, у вас может возникнуть больше проблем, чем при запуске. Вы абсолютно хотите убедиться, что все внесенные изменения верны, или вы можете оказаться в худшей форме, чем перед аудитом. Один из способов обхода контента, когда он не является общедоступным, - это доступ к VPN. Я рассказал об этом в предыдущем посте о том, как сканировать промежуточный сервер до того, как изменения будут перенесены в производство. Но вот втирание. Сейчас мы говорим о промежуточной среде, а не о производстве. Бывают случаи, когда изменения вытесняются из производства, и что-то идет не так. Может быть, директивы попали в ловушку, сбой кода нарушает метаданные, влияет на дизайн сайта, что также влияет на удобство использования, негативно влияют мобильные URL-адреса и т. Д. И т. Д. Поэтому вы определенно хотите проверить изменения в стадии постановки, но вы абсолютно хотите дважды проверить эти изменения после того, как они начнут жить в процессе производства. Я не могу сказать, сколько раз я проверял производственную площадку после того, как изменения стали толкнуть вживую и найти проблемы. Иногда они маленькие, но иногда они не такие маленькие. Но если вы поймаете их, когда они впервые развернутся, вы можете уничтожить эти проблемы, прежде чем они могут нанести многократный урон. Причина, по которой я приведу все это, состоит в том, что критически важно проверять изменения на всем протяжении пути к производству, а затем, очевидно, после того, как изменения повлияют на производство. И это включает в себя повторное сканирование сайта (или разделов), где изменения вступили в силу. Давайте поговорим больше о повторном поиске.

Анализ повторного поиска и сравнение изменений

Теперь вы можете сказать, что Гленн говорит о большой работе здесь ... ну, да и нет. К счастью, некоторые из лучших инструментов сканирования позволяют сравнивать обходы. И это поможет вам сэкономить много времени с помощью анализа повторного поиска. Я уже много раз упоминал о двух моих любимых инструментах сканирования, которые являются DeepCrawl и Screaming Frog. (Отказ от ответственности: я нахожусь в консультационном совете клиентов для DeepCrawl и уже несколько лет.) Оба являются отличными инструментами сканирования, которые обеспечивают функциональность и отчетность. Я часто говорю, что при использовании как DeepCrawl, так и Screaming Frog для аудита сайтов 1 + 1 = 3. DeepCrawl является мощным инструментом для обхода бизнеса, в то время как Screaming Frog отлично подходит для хирургических обходов. Кредит: GIPHY DeepCrawl и Screaming Frog - потрясающие, но на блоке есть новый ребенок, и его зовут Sitebulb. Я только начал использовать Sitebulb, и я его копаю. Я бы определенно взглянул на Sitebulb и попробовал. Это еще один инструмент, который может дополнять DeepCrawl и Screaming Frog.

Сравнение изменений в каждом инструменте

Когда вы повторно просматриваете сайт с помощью DeepCrawl, он автоматически отслеживает изменения между последним обходом и текущим обходом (при условии, что он имеет тренд во всех обходах). Это большая помощь для сравнения проблем, которые были обнаружены в предыдущих обходах. С течением времени вы также увидите тенденцию каждой проблемы (если вы выполняете больше, чем просто два обхода). Screaming Frog не обеспечивает сравнительную функциональность изначально, но вы можете экспортировать проблемы из инструмента в Excel. Затем вы можете сравнить отчеты, чтобы проверить изменения. Например, уменьшилось ли 404s с 15K до 3K? Были ли чрезмерно длинные заголовки падать с 45 до 10 тысяч? Не увеличивались ли страницы с точностью до 125 К от 0? (И так далее и т. Д.). Вы можете легко создавать свои собственные диаграммы в Excel. И теперь идет молодой панк по имени Sitebulb. Вы с удовольствием узнаете, что Sitebulb предоставляет возможность сравнивать обход изначально. Вы можете щелкнуть любой из отчетов и проверить изменения с течением времени. Sitebulb отслеживает все обходы для вашего проекта и сообщает о изменениях с течением времени для каждой категории. Потрясающие. Как вы можете видеть, правильные инструменты могут повысить вашу эффективность во время сканирования и повторного сканирования сайтов. После того, как были вскрыты проблемы, создан план исправления, внесены изменения, изменения, проверенные в стадии постановки, а затем обновления, перенесенные в производство, окончательный рекрутинг имеет критически важное значение. Наличие возможности сравнивать изменения между обходами может помочь вам определить любые изменения, которые не были выполнены правильно или которые нуждаются в большей доработке. А для Screaming Frog вы можете экспортировать в Excel и сравнивать вручную. Теперь давайте поговорим о том, что вы можете найти во время анализа повторного поиска.

Вытянуто из производства: реальные примеры того, что вы можете найти во время анализа повторного поиска

После того, как изменения будут перенесены на производство, вы полностью разоблачите SEO-мудрый. Googlebot, несомненно, начнет сканирование этих изменений в ближайшее время (лучше или хуже). Процитировать Форрест Гамп: «Жизнь - это коробка конфет, вы никогда не знаете, что вы получите». Ну, полные ползания одинаковы. Есть много потенциальных проблем, которые могут быть введены на сайт, когда изменения идут вживую (особенно на сложных, крупномасштабных сайтах). Вы можете быть удивлены тем, что найдете. Ниже перечислены реальные проблемы, с которыми я столкнулся во время различных рекрутов производства, помогая клиентам на протяжении многих лет. Эти пули не вымышлены. Они на самом деле произошли и были вызваны на производство случайно (CMS вызвала проблемы, команда разработчиков случайно что-то нажала, произошел сбой кода и т. Д.). Закон Мерфи - идея о том, что все, что может пойти не так, пойдет не так - реально в SEO, поэтому критически важно проверить все изменения после того, как они перейдут вживую. Помните, что целью было исправить проблемы, а не добавлять новые. К счастью, я быстро взял проблемы, отправил их каждой команде разработчиков и удалил их из уравнения.
  • Canonicals были полностью удалены с сайта, когда изменения были перенесены в реальном времени (на сайте было проиндексировано 1,5 миллиона страниц).
  • Тег meta robots с использованием noindex был неправильно опубликован в нескольких разделах сайта с помощью CMS. И эти дополнительные разделы вытеснили значительный объем поискового трафика.
  • С другой стороны, чтобы улучшить мобильные URL-адреса на сайте, тысячи незаполненных или почти пустых страниц были опубликованы на сайте (но доступны только для мобильных устройств). Итак, была инъекция тонкого содержимого, которое было невидимым для невооруженного глаза.
  • Неправильный файл robots.txt был опубликован, и тысячи URL-адресов, которые не должны сканироваться, сканируются.
  • Файлы Sitemap были повреждены и не обновлялись корректно. И это включало Sitemap для Google News. И Google News запустили много трафика для сайта.
  • Теги Hreflang были удалены случайно. И были 65K URL-адреса, содержащие теги hreflang, предназначенные для нескольких стран на кластер.
  • Сбой кода в два раза увеличил количество объявлений выше складки. Итак, когда у вас было одно раздражающее объявление, занимающее огромное пространство, на сайте теперь было два. Пользователям пришлось прокручивать страницы, чтобы перейти к основному контенту (неважно с алгоритмической точки зрения, с точки зрения удобства использования или с точки зрения действий Chrome).
  • Ссылки, которые не были приняты в течение многих лет, внезапно повторялись.
  • Навигационные изменения фактически заморозили меню на сайте. Пользователи не смогли получить доступ к выпадающему меню на сайте до устранения проблемы.
  • Разбивка страницы с разбивкой по страницам сломалась, и rel next / prev и rel canonical были настроены неправильно. И сайт содержит тысячи страниц разбивки на страницы по многим категориям и подкатегориям.
  • Настройка AMP была нарушена, и каждая страница с альтернативой AMP не содержала правильный код амфета. И rel canonical был удален с страниц AMP как часть той же ошибки.
  • Тэги заголовков были улучшены в ключевых областях, но html-код был добавлен случайно на кусок этих заголовков. Код html начал разбивать теги заголовков, в результате чего заголовки имели более 800 символов.
  • Сбой кода добавил дополнительные подкаталоги к каждой ссылке на странице, что привело к пустым страницам. И на этих страницах в каждую ссылку в навигации добавлено больше каталогов. Это создало идеальный шторм неограниченных URL-адресов, которые сканируются с тонким содержимым (бесконечные пробелы).
  • Я думаю, вы получите картину. Вот почему проверка постановки в одиночку недостаточно хороша. Вам необходимо переделать производственный сайт, так как изменения идут вживую, чтобы гарантировать, что эти изменения будут выполнены правильно. Опять же, проблемы, перечисленные выше, всплывали и исправлялись быстро. Но если сайт не сканировался снова после того, как изменения пошли вживую, они могли бы вызвать большие проблемы.

    Преодоление закона Мерфи для SEO

    Мы не живем в совершенном мире. Никто не пытается саботировать сайт, нажимая изменения вживую. Просто работа на больших и сложных сайтах оставляет дверь открытой для небольших ошибок, которые могут вызвать большие проблемы. Повторение изменений, которые вы указали, может пресечь эти проблемы в зародыше. И это может спасти день SEO-мудрый. Для тех из вас, кто уже проводит окончательный анализ повторного поиска, это потрясающе. Для тех из вас, кто полагает, что ваши рекомендуемые изменения будут правильно настроены, прочтите список реальных проблем, которые я обнаружил во время повторного анализа. Затем включите анализ повторного поиска в свой следующий проект. Это «последняя миля». Раньше я писал о Законе Мерфи. Это реально, и это страшно, как черт для оптимизаторов. Рекрунг может помочь держать Мерфи в страхе - и это всегда хорошо, когда Googlebot приходит в стук. Мнения, выраженные в этой статье, принадлежат авторам гостевых изданий, а не обязательно поисковым системам. Здесь перечислены авторы работ.
    Share To:

    celcumplit

    Post A Comment:

    0 comments so far,add yours