Jump to content

Закрыть якоря от индексации, как?


Recommended Posts

 Google тысячами сканирует страницы типа site.ru/#!/123

Уже приняли меры в вебмастереss.thumb.png.ecfc44614996823dbefed00a325351ef.png

Как избавиться от таких дублей

robots.txt не помогает

 

Link to post
Share on other sites
  • Модератор

Тут дело не в роботс! Дело в движке, который генерирует эти ссылки. Вам надо проследить где они появляются на сайте и убрать их!

В двух словах, на эти страницы не должно быть ссылок!

Link to post
Share on other sites

Идем в справку гугл и читаем про сайты на AJAX, если это ваш случай?

Чтобы запретить индексацию страниц с #! нужно в роботсе для гугла прописать

Disallow: /*_escaped_fragment_=DONOTCRAWL

В этом случае не будут индексироваться все страницы содержащие #!

Link to post
Share on other sites

Так 

Disallow: /*_escaped_fragment_

Так

Disallow: /*_escaped_fragment_*

Или так

Disallow: /?_escaped_fragment_*

Чтобы закрыть конкретную страницу в вашем случае, вроде так

Disallow: /*_escaped_fragment_/имя страницы

Что-то должно сработать, но это как таблетка от зубной боли - кариес не вылечит и пломбу не поставит. Как написали выше, надо решать проблему в корне

Edited by petroff
Link to post
Share on other sites

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...