seoinfodom

Нужно ли закрывать от индексации страницы пагинации

58 posts in this topic

Знаю некоторых, которые оставляют такие страницы для сбора дополнительных НЧ и СЧ, но это же бред. Мне подобного не нужно. Всю жизнь вебмастера боролись с лишними дублями, а тут на тебе, на страницы пагинации стали собирать трафик...ну это уже извращение. Хотя ситуёвины бывают разные, где-то и поможет. Но я решил их отрезать раз и навсегда. О чём на данный момент ни разу не пожалел. 

Ломаю голову как закрыть вот в опенкарт.А от пагинации только вред иногда я вижу как пользователь с ПС попадает не на 1 стр. категории ,а сразу на 5-6стр ппагинации.Это не правильно же. Да, и все теряется главной

Share this post


Link to post
Share on other sites

Ломаю голову как закрыть вот в опенкарт.А от пагинации только вред иногда я вижу как пользователь с ПС попадает не на 1 стр. категории ,а сразу на 5-6стр ппагинации.Это не правильно же. Да, и все теряется главной

а чем вам этот вариант не устраивает? На opencartforum таких тем подняли уже много.

Share this post


Link to post
Share on other sites

а чем вам этот вариант не устраивает? На opencartforum таких тем подняли уже много.

Люди же пишут ,что сайт умирает после этих изменений

Share this post


Link to post
Share on other sites

Люди же пишут ,что сайт умирает после этих изменений

ну так свяжитесь с автором изложенных действий и уточните подробности, думаю решение найдётся. Накиньте пару сотен рублей ему и всё решат за вас.

Share this post


Link to post
Share on other sites

Короче, пошел просто закрывать пагинацию от индексации без особых премудростей. 

ToneR likes this

Share this post


Link to post
Share on other sites

В итоге я выслушал мнение общественности и закрыл тегами все страницы пагинации. 

 

Закрыли тегами типа noindex? Я же собираюсь сделать disallow в роботсе. 

Есть принципиальная разница? 

Я извиняюсь за такие вопросы, это немного не моя тема) 

Share this post


Link to post
Share on other sites

Закрыли тегами типа noindex? Я же собираюсь сделать disallow в роботсе. 

Есть принципиальная разница? 

Я извиняюсь за такие вопросы, это немного не моя тема) 

Закрывая двойным тегом <noindex></noindex>, страница все равно попадет в индекс, такое не практикует никто, потому что этот тег предназначен немного для другого. Есть несколько вариантов запретить индексацию страниц пагинации, можете использовать хоть все сразу, это не принципиально.

  1. Закрыть страницы пагинации в файле robots.txt
  2. Прописать на страницах пагинации тег <meta name="robots" content="noindex, nofollow"/>
  3. Прописать на страницах пагинации тег <link rel="canonical" href=""/>
seoinfodom and witosp like this

Share this post


Link to post
Share on other sites

 

Закрывая двойным тегом <noindex></noindex>, страница все равно попадет в индекс, такое не практикует никто, потому что этот тег предназначен немного для другого. Есть несколько вариантов запретить индексацию страниц пагинации, можете использовать хоть все сразу, это не принципиально.

  1. Закрыть страницы пагинации в файле robots.txt
  2. Прописать на страницах пагинации тег <meta name="robots" content="noindex, nofollow"/>
  3. Прописать на страницах пагинации тег <link rel="canonical" href=""/>

 

совершенно верно, только я на практике robots.txt вообще не трогаю, все правки делаю в самом коде движка.
а варианты 2 и 3 использую вместе, именно так закрываю все ненужные мне страницы, чего и остальным советую.
ToneR likes this

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!


Register a new account

Sign in

Already have an account? Sign in here.


Sign In Now

  • Recently Browsing   0 members

    No registered users viewing this page.