Sign in to follow this  
Followers 0
daranger

Закрыть якоря от индексации, как?

8 posts in this topic

 Google тысячами сканирует страницы типа site.ru/#!/123

Уже приняли меры в вебмастереss.thumb.png.ecfc44614996823dbefed00a325351ef.png

Как избавиться от таких дублей

robots.txt не помогает

 

Share this post


Link to post
Share on other sites

Тут дело не в роботс! Дело в движке, который генерирует эти ссылки. Вам надо проследить где они появляются на сайте и убрать их!

В двух словах, на эти страницы не должно быть ссылок!

daranger likes this

Share this post


Link to post
Share on other sites

согласен, но как быть если они были когда то, но давно

или же получается можно проспамить таким образом любой сайт!???

Share this post


Link to post
Share on other sites

Идем в справку гугл и читаем про сайты на AJAX, если это ваш случай?

Чтобы запретить индексацию страниц с #! нужно в роботсе для гугла прописать

Disallow: /*_escaped_fragment_=DONOTCRAWL

В этом случае не будут индексироваться все страницы содержащие #!

daranger likes this

Share this post


Link to post
Share on other sites

Так 

Disallow: /*_escaped_fragment_

Так

Disallow: /*_escaped_fragment_*

Или так

Disallow: /?_escaped_fragment_*

Чтобы закрыть конкретную страницу в вашем случае, вроде так

Disallow: /*_escaped_fragment_/имя страницы

Что-то должно сработать, но это как таблетка от зубной боли - кариес не вылечит и пломбу не поставит. Как написали выше, надо решать проблему в корне

Edited by petroff
daranger likes this

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!


Register a new account

Sign in

Already have an account? Sign in here.


Sign In Now
Sign in to follow this  
Followers 0

  • Recently Browsing   0 members

    No registered users viewing this page.