Ошибки, влияющие на продвижение страниц сайта

ВАЖНО! ЕСЛИ ВАМ НУЖНЫ УСЛУГИ ПО ПРОДВИЖЕНИЮ, ТО ПИШИТЕ В ЛИЧКУ НА БИРЖЕ KWORK 👉👉👉 https://kwork.ru/user/nikolay_nikolaevich

Критические ошибки, влияющие на продвижение страниц сайта

400-е и 300-е ошибки

На первый взгляд кажется, что это обычные ошибки, указывающие на то, что страниц на данном месте нет. Однако это кажется только на первый взгляд. Потому что можно придумать любой адрес, которого не существует на сайте. Это делается набором адреса в браузере и итогом станет отсутствие страницы или 404 ошибку.

Тут проблема в том, что существуют страницы, ссылающиеся на места, которых на сайте нет. Например, у вас с интернет-магазине продавался какой-либо товар. Его весь распродали, или его убрали из продаж. При этом, когда-то давно вы писали несколько статей про этот товар и ссылались на страницу с ним. Ссылка на данный несуществующий товар осталась. Все эти ссылающиеся страницы уже давно ушли в архив. Их никто не корректировал и не обновлял.

ВАЖНО! ЕСЛИ ВАМ НУЖНЫ УСЛУГИ ПО ПРОДВИЖЕНИЮ, ТО ПИШИТЕ В ЛИЧКУ НА БИРЖЕ KWORK 👉👉👉 https://kwork.ru/user/nikolay_nikolaevich

Похожая ситуация наблюдается с редиректом, когда, к примеру, с товарной страницы делается редирект на данную страницу, которая ведет на редирект.

Чем это опасно для продвижения? Серьезных трудностей в связи с этим возникнуть не должно. Особенно, если таких ошибок очень мало. К тому же если речь идет об ошибке, то это даже ошибкой назвать нельзя. В таких малых объемах, как 5 ошибок 404 и 30 ошибок 300 ошибки, это ничем не страшно.

Страница, которой нет, будет находиться в 400-м статусе в панели вебмастера. Самому сайту хуже от наличия этого висения не будет. Однако, поиск постоянно обращается к таким ссылающимся страницам, чтобы проверить, а вдруг на этих страницах что-нибудь появилось? То есть поисковая система пытается подтвердить статус существования данной страницы.

ВАЖНО! ЕСЛИ ВАМ НУЖНЫ УСЛУГИ ПО ПРОДВИЖЕНИЮ, ТО ПИШИТЕ В ЛИЧКУ НА БИРЖЕ KWORK 👉👉👉 https://kwork.ru/user/nikolay_nikolaevich

Поэтому краулинговый бюджет, который выделяется на индексацию всего вашего сайта, будет также отрывать от себя часть ресурсов на несуществующие страницы. Возможна и такая ситуация, когда поиск вычеркнет эти несуществующие страницы из своего списка и перестанет их посещать по расписанию.

Тем не менее, пока такие страницы существуют, поисковая система может обращаться к ней. Итак, какие отрицательные стороны во всем этом:

  • расходуется краулинговый бюджет впустую.
  • отчасти влияет на ранжирование сайта, особенно в случаях с четырехсотыми ошибками.

Когда есть внешние ссылки, ссылающиеся на несуществующие страницы (404). Эти ссылки ведут в пустоту. Считается, что этот вес не добавляет солидности сайту в глазах поисковой системы.

ВАЖНО! ЕСЛИ ВАМ НУЖНЫ УСЛУГИ ПО ПРОДВИЖЕНИЮ, ТО ПИШИТЕ В ЛИЧКУ НА БИРЖЕ KWORK 👉👉👉 https://kwork.ru/user/nikolay_nikolaevich

Поэтому, если у вас была страница, на нее были какие-то ссылки (внутренние или внешние), и вы удалили данную страницу, то ссылки будут вести в пустоту и сайт будет получать меньше ссылочного веса. То же самое относится и ко внутренним ссылкам, хотя вес внутренних ссылок очень низкий. Поэтому таких ссылок может быть много, вернее удаленных страниц с ведущими на них внутренними ссылками.

Здесь важно уточнить, что на вашем сайте может быть десяток тысяч удаленных страниц. Главное, чтобы на все эти страницы не было ссылок, чтобы не терять краулинговый бюджет и часть ссылочного веса.

Если говорить о редиректах, то тут ситуация не такая уж и критическая. Вес, который передается на страницу, на которой есть ссылка на другую страницу снова впустую тратит краулинговый бюджет. Потому что бот, который пришел на страницу редиректа, увидел, что тут еще одна ссылка, которая ведет на финальную страницу, ставит задачу посетить эту последнюю страницу уже в следующую сессию и уходит.

Если таких ошибок будет много, то это может-таки оказать влияние на индексацию сайта в целом. Еще принято считать, что при редиректах случается дисконт. Например ранее делали следующие измерения. Брали какой-то сайт, на который цепляли ссылку на определенную страницу с уникальным анкором, затем делали редирект, на которую ведет ссылка. После этого фиксировали нахождение следующей страницы, на которую уходил редирект по данному анкору.

Если страница, на которую уводил редирект по уникальному анкору, то вес передавался. Измерения делали на цепочках редиректов. Результат был следующим, что седьмой редирект уже не позволял находить страницу. Другими словами есть донор, между ними звено из 6 страниц, которые поиск находит, а вот седьмую страницу в этом звене поиск уже не видит.

Вот почему вес постепенно дисконтируется и к концу цепочки практически обнуляется, исчезает. Чем больше редиректов стоит, тем меньше веса получает каждая последующая страница. Важно, что даже при одном редиректе происходит хотя бы какое-то дисконтирование. Если измерить точную потерю веса нельзя, то зная, что полностью вес исчезает на седьмом редиректе, можно констатировать, что при шести редиректах вес передается, а на седьмом уже нет. Хотя до этого вес передается целиком и без потерь.

Есть оптимизаторы, которые считают, что с каждым последующим редиректом, поисковый вес снижается. Насколько снижается, измерить это, к сожалению, невозможно.

Поэтому желательно не создавать ссылки на редиректы, чтобы этого дисконтирования не происходило. Официальный представитель Гугла говорил, что дисконтирования не существует, и что вес передается через редиректы полностью. Однако полностью доверять таким представителям нельзя, потому что часто они сами не знают, как их поисковая система работает.

Лучше перестраховаться и сделать так, чтобы ссылок на страницы с 404 и 300-ми ошибками на вашем сайте не было. Когда вы обнаружите такие ссылки, то все страницы на статьях, товарах и прочих местах вы должны будете отредактировать, то есть, удалить все ссылки, ведущие в никуда.

Дубликаты. Насколько они страшны с точки зрения ранжирования

Считается, что это самое страшное, что может случиться в технической оптимизации сайта. Все будет ужасно, если две страницы на вашем сайте совпадут друг с другом по тайтлу.

Что происходит в реальности. Поиск сравнивает две копирующие друг друга страницы и в конце концов, он должен будет выбрать одну из них, которая больше удовлетворяет запросу пользователя, который он вводит для решения своей проблемы.

Вторая страница будет тоже участвовать в поиске, но только в расширенном, где эта страница будет занимать второе или третье место.

Также считается, что если часть контента совпадает на двух страницах, то поиск будет относиться к одной из этих страниц как к ненужному контенту. Он будет считать, что индексировать один и тот же материал – плохо. Тут, однако, сложно сказать, что значит для поиска одно и то же.

Совпадение может быть частичное, или текстовое. Или когда совпадают только тайтлы. Или когда совпадают только заголовки Н1. Здесь никто точно не скажет, что для поиска одинаковый контент. Получается, что есть некие границы, за которые стараются не заходить. Тем не менее, считается, что большинства совпадений в значимых местах для поиска быть не должно.

Уникальными должны быть:

  • тайтлы на всех страницах.
  • Н1 также должны отличаться на всех страницах.
  • текст.
  • описание.

Да, описание никак не влияет на ранжирование, так как его цель – это привлечение внимания пользователя. Однако проводились замеры, которые выявили, что одинаковое описание плохо отражается на ранжировании страниц.

Чаще всего такая ошибка встречалась в интернет-магазинах, в которых программист прописывал одинаковое описание для всех товарных позиций. Из-за чего в будущем появлялась проблема с индексированием таких товаров. Поиск воспринимал такие описания как дубликаты друг друга. Усугубляло ситуацию еще и скудное описание, которое состояло лишь из одного названия продукта.

Пока эта ошибка не исправлялась путем удаления описания, переписыванием его на уникальный лад, индексация этих страниц не происходила.

ВАЖНО! ЕСЛИ ВАМ НУЖНЫ УСЛУГИ ПО ПРОДВИЖЕНИЮ, ТО ПИШИТЕ В ЛИЧКУ НА БИРЖЕ KWORK 👉👉👉 https://kwork.ru/user/nikolay_nikolaevich

Получается, что если поисковая система видит какую-то степень схожести нескольких или двух страниц, эти страницы решают одну и ту же проблему одинаково с точки зрения проблемы пользователя, то поисковая система может удалить из индексации одну из таких страниц. А может и сразу несколько.

Это может плохо отразиться на всем сайте. Потому что одно дело, если у вас интернет-магазин с похожими друг на друга товарами, то всегда хочется, чтобы все эти товары находились в поиске, потому что у них разница небольшая, например, в артикуле или всего лишь в одном свойстве. И поиск, не видя эти отличия может на разные запросы выдавать одну и ту же страницу, считая, что все остальные страницы не полезны для пользователей. А оставшиеся страницы он будет удалять из поиска.

Технически невозможно создать страницы, у которых бы кардинально отличались заголовки, описания.

Смещение релевантности

Это случай, когда страницы имеют похожий контент, то из-за внешних поведенческих факторов, из-за ссылочных, текстовых факторов, одна страница может опережать другую.

Но так как вы одну страницу прокачивали под определенный пользовательский запрос, а вторую страницу не очень, то может возникнуть ситуация, когда прокачанная страница не будет ранжироваться по нужному запросу, а та, над которой вы не работали может ранжироваться по запросу, но находиться на какой-нибудь 20-й странице поиска.

К примеру у вас есть клавиатуры проводные и клавиатуры с подсветкой, то проводные клавиатуры будут выводиться в проводных клавиатурах и просто клавиатурах. Вроде бы кажется, что это две разные категории, которые должны решать две задачи пользователя, но так как эти товары похожи друг на друга, то поиск примет их за дубликаты друг друга.

И поисковая система будет выводить одну из этих страниц по одному и другому запросу. Это все может приводить к тому, что в поиск может выводиться то одна, то другая страница. Одной из причин таких скачков по позициям может стать большое количество спама на странице, которую вы оптимизируете. Поэтому все эти повторения нужно вылавливать по тайтлам, описаниям и Н1, исправлять совпадения.

Дубликаты текста

Скорее всего, у вас две страницы с одинаковым текстом находятся на разных адресах. Это может быть техническая ошибка проектирования самого движка. В этом случае одна из страниц должна признаваться канонической. Во втором случае каноникал должен являться склейкой двух этих страниц в одну.

Так чтобы текст совпал с точностью до символа или значительной части этого текста – маловероятно. Зато дубликаты тайтла и Н1 могут возникать с точки зрения ошибки ввода текста.

При этом нужно помнить, что существуют неявные дубли. Они могут совпадать не по символам. У них может быть немного другое написание. Поэтому, если программы аудита будут находить подобные ошибки, то эти страницы надо будет сортировать по тайтлам и Н1. После чего смотреть, на каких из этих страниц два этих параметра могут примерно совпадать друг с другом, или они сильно похожи.

Потому как это считается таким же дублем, как побуквенное совпадение. Программа, которая может обнаружить ошибки не сможет находить подобных совпадений, это придется делать, что называется, вручную.

Отсутствующий тайтл или описание

Это ошибки технического характера. Скорее всего, это какие-то служебные страницы, которые не оформляются для оптимизации под поисковую систему. В основном за это отвечает тот, кто наполняет сайт или кто занимается его кодингом.

Если такие страницы не предназначены для ранжирования, то на них будут отсутствовать мета-тэги, или они просто не заполнены, то хуже от этого в плане индексации не будет. Просто такие страницы не будут проиндексированы поисковыми системами и поэтому принимать участие в ранжировании не будут.

Пустое описание также не является критической ошибкой, по крайней мере, с точки зрения валидности верстки. Однако никогда такого не было, чтобы валидность верстки мешало ранжироваться сайту. Не было такого, чтобы страница, которая была не валидной, а потом стала валидной и после этого сразу стала ранжироваться.

Это и понятно, потому что это не контентная часть и поисковой системе все равно, что там написано или не написано. Тут больше о том, что поисковая система может плохо относиться к страницам, которые недостаточно хорошо или правильно оформлены технически.

В этой ситуации поиск будет рассматривать такое отношение с точки зрения коммерческих факторов. Если с точки зрения доверия к вашему сайту страницы будут оформлены неправильно или плохо, то это может как-то плохо отразиться на ранжировании. Это особенно касается Яндекса, их представители говорили, что если страница оформляется плохо, то поиск может понизить рейтинг сайта. Причем речь шла о страницах, которые не являлись важными с точки зрения оптимизации.

Потому что пользователи хотят видеть красивые и ухоженные сайты. И если на них к тому же недостоверная информация, то этот факт может влиять на место в выдаче ваших страниц.

Такая же ситуация сложилась и с Гугл. Там оптимизаторы выяснили, что после того, как сайт почистили от страниц, которые бесполезны с точки зрения оптимизации, и они были плохо оформлены, повторяли информацию других страниц, то наступало улучшение ранжирование. Хотя это улучшение можно приписать к совокупности разных действий и факторов. Лучше к этому относиться как к предупреждению, который можно купировать, но придавать слишком большое значение этому не стоит.

Висячий узел

Это поисковый вес, который приходит на ваш сайт, но утекает в этот самый висячий узел, не давая никакой пользы вашему сайту. К таким узлам относятся:

  • 404 ошибка.
  • файлы на скачивание.
  • файлы, не имеющие на себя внутренних ссылок.

Считается, что поисковый вес из-за таких ошибок исчезает в пустоте. Хотя, конечно, такое мнение не верно. Сам поисковый вес является условным, и является накопительной историей. А именно:

  • все внешние ссылки.
  • время, которое существует домен и страницы вашего сайта.
  • а также ссылки, ведущие на данные страницы.

Все эти факторы накапливаются со временем, чтобы потом распределяться между ссылками, которые уходят с данного сайта. Поэтому, если вы хотите, чтобы число страниц, на которые вы ссылаетесь, было как можно меньше.

Обычно таким ссылкам присваивают метку, что это ссылка спонсора. Чтобы вес, который уходит по обычным ссылкам был максимизирован. Поэтому проблема висячих узлов надумана. Что связано с рангом страниц, который уже давно не учитывается поиском, о чем даже говорилось на брифинге Гугла. Тут просто идет речь о некоем расчетном весе определенного документа, который оказывает влияние на ранжирование этой страницы.

Страницы, которые закрываются в robots txt

Несмотря на блокировку, поисковая система все равно пытается проникнуть на данную страницу, потому что инструкции в роботс – это рекомендательные инструкции. Это можно определить по серверным логам, при этом контент таких страниц не будет рассматриваться поисковой системой. Поиск может создавать пустой снипет для этой страницы. Однако сама строчка с возможных тайтлом будет присутствовать.

Если в такой странице находится редирект, или в этой странице есть внутренние ссылки, но они заблокированы в роботс, то поисковая система этих ссылок не найдет. Значит через такой редирект не будет происходить передача веса. Это может быть плохо в случае, когда вы пытаетесь передать вес с внешними ссылками.

Внутренние ссылки

Если ваша страница была разводящей и вела на кусок другой страницы, которая должна быть проиндексирована поиском и изучаться им, тогда на вашем сайте нарушится внутренняя перелинковка. И поиск будет думать, что внутренних ссылок на этих страницах не существует. Он перестанет индексировать другие части вашего сайта, если на них невозможно будет зайти через другие ссылки.

Вот почему работая с роботс вам надо четко понимать, для чего вы закрываете те или иные страницы. Например, можно закрывать незначительную информацию, чтобы не индексировалась корзина в вашем интернет-магазине, или сообщения из чата со службой поддержки. То есть в случаях, когда это оправданное закрытие.

Вы можете заказать у нас услугу по получению ссылочной массы на ваши страницы из социальных сетей. Например, будет сделано 55 закладок на ваши продвигаемые страницы в браузере Яндекс. Все подробности об услуге смотрите здесь.

ВАЖНО! ЕСЛИ ВАМ НУЖНЫ УСЛУГИ ПО ПРОДВИЖЕНИЮ, ТО ПИШИТЕ В ЛИЧКУ НА БИРЖЕ KWORK 👉👉👉 https://kwork.ru/user/nikolay_nikolaevich