Почему сайта нет в поиске – 10 главных причин

Недостаточно просто создать и наполнить сайт, независимо от того, во сколько обошлась разработка, будь то 500 рублей или миллион. Должны быть обеспечены условия, при которых страницы сайта попадут в органическую выдачу поисковых систем. На индексацию и последующее ранжирование ресурса влияют множество факторов, оттого и причины, почему сайта не в поиске, различны. Специалисты digital-агентства «Директ Лайн» подготовили список из 10 главных причин, почему ваш сайт может не отображаться в поиске.

10 причин, почему сайта нет в поиске

Нужно перепроверить robots.txt

Robots.txt – это текстовый файл, содержащий параметры индексирования сайта для роботов поисковых систем (краулеров). Если допустить в нем ошибку, появится риск неверной передачи нужных команд поисковым роботам. Robots.txt позволяет направлять их на нужные страницы и не пускать на те, которые не нужно индексировать. Если сайт закрыт от индексации, то он и не появится в выдаче поисковой системы. Проверить файл можно в Яндекс.Вебмастере или Google Search Console. Чаще всего, проблемы с индексированием отдельных страниц или разделов сайта, связаны именно с неверным содержимым в Robots.txt.

Проверка Роботс

C:\Users\User\YandexDisk\Скриншоты\2021-02-19_14-10-49.png

Некорректный ответ сервера

Сайт должен быть доступен и посетителям, и поисковым роботам. Для этого при проверке ответа сервера он должен отдавать код 200 ОК. В противном случае в индекс поисковых систем этот сайт не попадает. Проверить код ответа сервера можно, например, в Яндекс.Вебмастере.

C:\Users\User\YandexDisk\Скриншоты\2021-02-19_14-11-48.png

C:\Users\User\YandexDisk\Скриншоты\2021-02-19_14-12-24.png

Запрещающие метатеги

Метатеги носят строгий характер для поисковых роботов. Требуется тщательно проверить код страниц на наличие запрещающих метатегов. При необходимости ограничить доступ для краулеров к определённой странице используют meta name=robots. Полный вариант записи:

&lt,meta name=“robots” content=“noindex,nofollow”&gt,

Важно обратить внимание на возможные значения атрибута content:

  • noindex, nofollow – запрет индексации всей страницы и переходов по ссылкам на ней,
  • noindex, follow – индексация страницы не выполняется, но поисковик может переходить по ссылкам,
  • index, nofollow – страница индексируется, но переход по ссылкам запрещен,
  • none – альтернатива записи noindex, nofollow,
  • noimageindex – запрещает Google индексировать картинки на странице. «Яндексом» не поддерживается,
  • nosnippet – указывает поисковым системам не отображать текстовые или видео сниппеты.

HTTP-заголовки X-Robots-Tag

X-Robots-Tag – это заголовок HTTP, дающий указания об индексации сайта поисковым системам. У него есть такие же атрибуты, как и у мета-тега robots. Так, например, если в коде страницы прописано «X-Robots-Tag: noindex», то индексация страницы для поисковых роботов запрещена. Соответственно, необходимо проверить код на наличие подобных конструкций, если сайта нет в поиске.

Блокировка в .htaccess

В этом случае необходимо проверить log-файлы сайта и проанализировать, какие роботы посещают страницу. Если внутри файла .htaccess есть строки типа «SetEnvIfNoCase User-Agent ^Googlebot search_bot», то содержимое скрыто от краулеров. Для разблокировки требуется лишь удалить эти конструкции.

Дубли

Наличие страниц-дублей негативно влияет на оценку сайта поисковой системой. Робот вынужден сам выбирать среди нескольких документов наиболее релевантный. При большом количестве страниц-дублей, краулер может вовсе пропустить важные страницы. Не забывайте настраивать тег «rel canonical».

Неуникальный контент

Если сайт наполнен материалом, который частично или полностью скопирован с других источников, то поисковая система считает, что он не несет пользы людям. За плагиат сайт или теряет позиции в поиске, или же такие страницы не появляются в поиске вовсе.

Разные типы текста имеют определенный порог уникальности. Для проверки текстов используйте любой сервис антиплагиата.

Фильтры

Фильтры поисковых систем – это специальные алгоритмы, которые оценивают различные параметры сайта или отдельных его страниц. К таким параметрам относятся качество и уникальность контента, полезность ресурса для пользователей, удобство навигации, наличие нарушений со стороны владельца (например, накрутка поведенческих факторов).

Фильтры поисковых систем могут быть ручными и автоматическими. Первые накладываются вручную асессорами или сотрудниками поисковой системы, вторые – самой поисковой системой. Попасть под фильтр – означает потерять позиции или покинуть поисковую выдачу в среднем на 2-3 месяца, пока не будут устранены обнаруженные проблемы.

Проверить сайт на наличие основных фильтров можно с помощью «Яндекс.Вебмастер» и Search Console.

C:\Users\User\YandexDisk\Скриншоты\2021-02-19_14-13-18.png

C:\Users\User\YandexDisk\Скриншоты\2021-02-19_14-12-52.png

Сайт новый

Недавно созданный сайт очень часто не отображается в поиске, так как он просто еще не был проиндексирован. Если ресурс размещается на новом домене, то понадобится в среднем 1-3 недели для его обнаружения поисковыми роботами и старта процесса индексации. В случае использования старого домена, если вы плохо проверили его историю и ранее ресурс негативно воспринимался поисковиками, индексация так же может быть замедлена.

Для проверки статуса URL можно воспользоваться сервисами вебмастера Яндекс или Google Search Console.

C:\Users\User\YandexDisk\Скриншоты\2021-02-19_14-13-54.png