Параметры в URL-адресе сайта позволяют собирать статистику по предпочтениям пользователей, популярным страницам и товарам. При правильном использовании, они значительно упрощают разработку сайта. Однако их неправильно использование может ощутимо понизить позиции вашего сайта в поисковой выдаче.
Динамические параметры в адресной строке — что это?
GET-параметр (CGI-параметр) — изменяющийся параметр в URL-адресе, с помощью которого можно изменять контент на странице (параметры, влияющие на контент), отслеживать информацию о посетителях сайта (параметры отслеживания).
Например, сортировка товаров в интернет-магазине по возрастанию цены.
Рисунок 1. Страница без сортировки по цене.
Рисунок 2. Страница с отсортированными по цене товарами.
Основные задачи для которых используются параметры в URL-адресе:
- 1. Отслеживание источников перехода посетителей на сайт (из рекламы Яндекс.Директа, почтовых рассылок и т.д.);
- 2. Изменение контента на странице (различные виды сортировок товара);
- 3. Определение конкретного пользователя;
- 4. Получение новых страниц для поискового продвижения;
- 5. Указание поисковой системе на конкретную версию языка или страны для определенных пользователей.
GET-параметры в URL-адресе начинаются с знака «?» и отделяются друг от друга знаком «&».
Например, в адресе http://test123.com/?product=1321&utm_source=google имеются 2 GET-параметра: product со значением 1321 и utm_source со значением google.
Какие проблемы могут возникнуть при некорректной настройке параметров?
- 1. Дублирование контента. Самая частая проблема возникающая из параметров в URL-адресе. Решить ее можно с помощью тега canonical или команды Noindex, блокировки в robots.txt с помощью Disallow.
- 2. Увеличение нагрузки на сайт из-за сканирующих контент роботов. Большое количество страниц приводит к тому, что поисковым роботам приходится их индексировать и это может привести к замедлению работы сайта. Решением ее будет установление частоты переобхода страниц в Яндекс.Вебмастере. Ранее можно было указать частоту обхода в robots.txt через директиву Crawl-delay, но она уже устарела.
- 3. Конкурирование страниц в поисковой выдаче. Может возникнуть ситуация когда, несколько страниц с похожим контентом будут конкурировать между собой, но каждой из них не будет хватать органического трафика для повышения позиции в выдаче. Решение будет то же, что и с дублированием контента.
- 4. Низкая кликабельность адреса. Наличие параметров в URL-адресе, снижает доверие посетителей к ссылке. Чем короче и понятнее ссылка, тем больше ей доверяют пользователи.