donfalco 0 Posted April 3, 2020 Report Share Posted April 3, 2020 На сайте у страницы каталога появилось 100 дублей страниц с get параметрами.Все они проиндексировались. Какие варианты решения проблемы? Link to post Share on other sites
Eserador 406 Posted April 3, 2020 Report Share Posted April 3, 2020 Закрыть страницы с гет-параметром от индексации. К примеру, Disallow: /*?* Link to post Share on other sites
petroff 648 Posted April 3, 2020 Report Share Posted April 3, 2020 Решение зависит от того, какие это страницы. Закрывать в роботсе так себе решение. Гугл щас, если находит такие ссылки, то он их индексирует вне зависимости от того, закрыты они в роботсе или нет. В вм при этом прилетает сообщение, что проиндексировано несмотря на блокировку в роботсе. Самое надежное закрывать тегом noindex. Закрывать мусор можно через роботс, только если это изолированные страницы - ссылок на которые нет в коде страниц сайта. Все остальное только через noindex vklimin 1 Link to post Share on other sites
vklimin 29 Posted April 3, 2020 Report Share Posted April 3, 2020 Если решать "мягко", то пропишите на страницах, у которых могут быть параметры, link rel canonical. Если включить "жесткач", то meta robots noindex. Link to post Share on other sites
Recommended Posts
Please sign in to comment
You will be able to leave a comment after signing in
Sign In Now