Использование параметров в URL-адресе для продвижения сайта

Параметры в URL-адресе сайта позволяют собирать статистику по предпочтениям пользователей, популярным страницам и товарам. При правильном использовании, они значительно упрощают разработку сайта. Однако их неправильно использование может ощутимо понизить позиции вашего сайта в поисковой выдаче.

 

Динамические параметры в адресной строке — что это?

 

GET-параметр (CGI-параметр) — изменяющийся параметр в URL-адресе, с помощью которого можно изменять контент на странице (параметры, влияющие на контент), отслеживать информацию о посетителях сайта (параметры отслеживания).

 

Например, сортировка товаров в интернет-магазине по возрастанию цены.

 

Рисунок 1. Страница без сортировки по цене.

Рисунок 1. Страница без сортировки по цене.

 

Рисунок 2. Страница с отсортироваными по цене товарами.Рисунок 2. Страница с отсортированными по цене товарами.

 

Основные задачи для которых используются параметры в URL-адресе:

 

  • 1. Отслеживание источников перехода посетителей на сайт (из рекламы Яндекс.Директа, почтовых рассылок и т.д.);
  • 2. Изменение контента на странице (различные виды сортировок товара);
  • 3. Определение конкретного пользователя;
  • 4. Получение новых страниц для поискового продвижения;
  • 5. Указание поисковой системе на конкретную версию языка или страны для определенных пользователей.


GET-параметры в URL-адресе начинаются с знака «?» и отделяются друг от друга знаком «&». 

 

Например, в адресе http://test123.com/?product=1321&utm_source=google имеются 2 GET-параметра: product со значением 1321 и utm_source со значением google.

 

Какие проблемы могут возникнуть при некорректной настройке параметров?

 

  • 1. Дублирование контента. Самая частая проблема возникающая из параметров в URL-адресе. Решить ее можно с помощью тега canonical или команды Noindex, блокировки в robots.txt с помощью Disallow.

  • 2. Увеличение нагрузки на сайт из-за сканирующих контент роботов. Большое количество страниц приводит к тому, что поисковым роботам приходится их индексировать и это может привести к замедлению работы сайта. Решением ее будет установление частоты переобхода страниц в Яндекс.Вебмастере. Ранее можно было указать частоту обхода в robots.txt через директиву Crawl-delay, но она уже устарела.

  • 3. Конкурирование страниц в поисковой выдаче. Может возникнуть ситуация когда, несколько страниц с похожим контентом будут конкурировать между собой, но каждой из них не будет хватать органического трафика для повышения позиции в выдаче. Решение будет то же, что и с дублированием контента.

  • 4. Низкая кликабельность адреса. Наличие параметров в URL-адресе, снижает доверие посетителей к ссылке. Чем короче и понятнее ссылка, тем больше ей доверяют пользователи.

 

Обращайтесь в КСАРУС

Нажимая кнопку, вы разрешаете обработку персональных данных