Как профессионалы в digital, предлагаем действенные методы, которыми пользуемся сами — это пять советов для роста Вашего ресурса в 2020!
- Интернет-магазин заинтересован, чтобы новый продукт скорее нашел своего заказчика.
- Информационному проекту быстрая индексация нужна для привлечения внимания к новости или свежему посту.
- Сайт услуг благодаря частым заходам поисковых ботов успешно выигрывает у конкурентов.
Как видим, online-проекту любой категории необходима скорейшая индексация страниц.
Для начала разберем причины долгой индексации:
- Контент на сайте обновляется редко, поэтому поисковый робот редко заходит на него.
- Стоит запрещение на обход роботами в robots.txt, настройках хостинга или в мета-тегах robots, поэтому индексирования страниц не происходит.
- Стоят фильтры на конкретную ПС, поэтому URL не индексируются именно ей.
5 советов, чтобы сайт полюбили поисковые системы
Займитесь внутренней оптимизацией
Создан ли файл robots.txt?
Он расположен в корне сайта по адресу site.ru/robots.txt. Если он отсутствует, надо создать и настроить. Если в нем есть строка «Disallow: /» - значит, сайт запрещен для индексирования в ПС. Закрыть доступ нужно только к определенным файлам. К ним относятся системные, страницы авторов, архивы, теги. Робот не тратит время на их индексацию, а проверяет сразу основные обновления. Дополнительно нужно проверить синтаксис robots.txt. Это поможет сделать Яндекс.Вебмастер в разделе Инструменты/Анализ robots.txt. Тут же можно проверить любую URL. Для этого в поле «Разрешены ли URL?» нажмите «Проверить», ответ выдастся сразу.
Создан ли файл sitemap.xml?
В нем содержатся все URL на страницы онлайн-ресурса. Это позволяет ПС ориентироваться в структуре сайта. Недавно созданные страницы добавляются в sitemap.xml для скорейшего обнаружения их роботами. После создания sitemap.xml пропишите в robots.txt строку пути к файлу: Sitemap: http://site.ru/sitemap.xml. Этот путь нужно прописать в панелях для вебмастеров:
- В Яндекс.Вебмастер: Инструменты/Анализ файлов Sitemap.
- В Google Search Console: Индекс/Файлы Sitemap.
Создана ли HTML карта сайта?
Это отдельная страница со списком ссылок на важные страницы. Картой пользуются как гости сайта, так и роботы. HTML карта также хороша для перелинковки. Отметим, Google не видит надобности в создании карты сайта и советует сосредоточиться на грамотной структуре, а вот Яндекс по-прежнему одобряет наличие такой страницы на любом ресурсе.
Какое время ответа сервера?
Время отклика должно составлять до 2 секунд; если дольше — робот покидает сайт. Сервер при обращении робота должен отдавать
- код 200 (страница существует).
- код 404 (страница не существует).
Продумана ли внутренняя перелинковка?
Робот от ПС охотнее посетит страницу, если на нее уже есть линки с других страниц сайта. Для этого сделайте несколько ссылок с уже индексированных страниц. Перелинковка делается внутри статьи, в самом низу или в сайдбаре.
Какой уровень вложенности?
На скорость прихода поискового бота влияет уровень вложенности страницы. В идеале он составляет не больше 3-х кликов от главной.
Уникальны ли тексты?
Делать каждый пост 100%-ной уникальности не обязательно, однако большая часть статей должны быть 80% уникальности и выше. Рерайт и плагиат не приветствуется поисковиками, такой контент для них не имеет ценности для пользователей. ПС любят осмысленные тексты, время от времени нужно постить интересные заметки на 2-10 тыс. знаков.
Живой ли сайт?
Помимо актуальной информации следите за частотой обновлений. Гугл и Яндекс приветствуют ресурсы, где апдейт происходит несколько раз в наделю. Публикации раз в месяц и отсутствие перелинковки заметно пессимизируют ресурс.
Воспользуйтесь Яндекс.Вебмастер и Google Search Console
Первое, что необходимо сделать после создания сайта — внести его адрес и отдельные страницы в соответствующие сервисы Яндекс и Гугл. Яндекс.Вебмастер и Google Search Console (панели для вебмастеров) — главные помощники в решении многих вопросов относительно функционирования и аналитики сайта, его ошибках и уязвимостях. Здесь же найдете поле «add URL» — «добавить URL»:
- В Яндексе заходите в раздел Индексирование/Переобход страниц, вводите новую ссылку и нажимаете «Отправить».
- В Google Search Console вводите ссылку, видите информацию о ее статусе и кликаете «Запрос на индексирование».
Это функция, позволяющая ускорить индексацию (переиндексацию). Каждый раз создавая новый URL или обновляя старый, добавляйте его в это поле. Так ПС узнает об обновленном контенте.
Внесите сайт в соцсети, каталоги, RSS-ленты
Разместить ссылку на новую страницу необходимо в соцсетях, будь то личные страницы, сообщества или паблики. Такой способ существенно улучшает индексацию. К таким социальным сетям относятся ВКонтакте, Twitter, Instagram и Facebook. Дополнительный трафик идет с Яндекс.Дзен. Каналы с высокой посещаемостью обеспечат переходы по линкам, что приведет к быстрому их индексированию.
Форумы и рейтинги по-прежнему способствуют росту сайта, хотя их популярность снизилась. RSS-ленты менее популярны. В 2020 году авторские ресурсы добавляют в каталоги блогов, а сайты — в рейтинги top100, rambler.ru, top.mail.ru, liveinternet.ru.
Добавьтесь в пинг-сервисы
Сайты-службы слежения за обновлениями предназначены для уведомления ПС о появлении новых страниц на сайте. Пинг-сервисов существует множество, однако добавлять во все не стоит, достаточно выбрать 10 ресурсов.
Формируйте весомые ссылки
Весомые ссылки — это линки на сайт с авторитетных источников. Чем больше сильных ссылок, тем лучше. Поисковики видят, как сайт интересен крупным ресурсам, и повышает его значимость. Весомые ссылки получить непросто, но есть вариант купить их или сотрудничать напрямую с вебмастерами таких трастовых площадок.