Идентификаторы сессий не имеют способности отличать реального пользователя от простых поисковых роботов. Роботы также получают выданные страницы с "чистым" параметром в ссылках и индексируют их как индивидуальные с собственными URL. Именно по этой причине база переполняется огромным количеством дублированных документов. В итоге такой индексации осуществляется склейка одинаковых страниц (с идентичным контентом).
Как бороться с данной проблемой!?
Чтобы идентификаторы сессий не являлись преградой для продвижение сайта, необходимо выполнить следующие действия:
1). Существует запрет для поисковых ботов производить индексацию страниц с SID при едином первом заходе. Поэтому возможно файл htaccess дополнить нижеуказанными строками:
2). Возможно, осуществить перенаправление, (приходящих на сайт посетителей по адресу с идентификатором сессий перенаправлять на страницы без такового).
3. Удалить список уже проиндексированных страниц ботами.
4. Использовать возможные инструменты поисковиков (в Яндекс с помощью Clean-param и в Google с помощью консоли этого сервиса) для надлежащего контроля индексации страниц с SID.
Google. Для приказа роботам выполнять определенные действия, данной поисковой системы нужна учетная запись для вебмастера, а сайт следовательно нужно добавить в консоль этого сервиса. Так можно добиться удаления у страниц идентификатора сессий.