Jump to content

Помогите закрыть якоря в роботс


Recommended Posts

Помогите закрыть от индексации якоря страниц, автоматически образующиеся при разбивки содержания.

 

Вот некоторые примеры якорей:

 

это отрезок - denwer/#_wordpress_denwer_8212

это отрезок - na-denwer/#WordPress

это отрезок - sayte-bloge/#mores-5

это отрезок - sayte-bloge/#mores-2

 

В общем надеюсь все поняли о чем я... 

 

Я делаю вот так в файле robots.txt, но не все работает:

 

Disallow: */#
Disallow: */#*
Disallow: */#__*
 
В общем мне нужно запретить к индексации все что после /#

 Даже если это выглядит так */#_record

 

Помогите понять, что не так?

 

Link to post
Share on other sites

Якоря не индексируются и не создают дублей страниц. Что site.ru/1.html, что site.ru/1.html#gfdgdfg site.ru/1.html#blalbla - это одна страница.

 Я насчет этого знаю, просто мне нужно для другой цели - о ней я не хочу говорить. И вот там нужно именно запретить в файле роботс.

Link to post
Share on other sites

Вы бы лучше помогли. а не флудили. 

То чем вы озабочены - ерунда на постном масле) Понасмотрятся курсо борисова и рядом с ними, и давай изыски внедрять на своих Гс. Потом вешают кликандеры-попандеры, сапы и партнёрки всякие неизвестного происхождения. Через пару месяцев все изыски плавно уходят в небытиё вместе с сайтами, разочарованный вебмастер в шоке - где это я дубль лишний не убрал?

Вобщем, хрень это всё. Пока не добьётесь признания своего ресурса пользователем, никакая оптимизация вам не поможет. Смотрите рутрекер, рутор. Там оптимизации - раз, два и обчелся! А посещалка - лям, или около! Работайте на признание публики, а не всякие коды оптимизированные. И будет вам щастя)))

Link to post
Share on other sites

То чем вы озабочены - ерунда на постном масле) Понасмотрятся курсо борисова и рядом с ними, и давай изыски внедрять на своих Гс. Потом вешают кликандеры-попандеры, сапы и партнёрки всякие неизвестного происхождения. Через пару месяцев все изыски плавно уходят в небытиё вместе с сайтами, разочарованный вебмастер в шоке - где это я дубль лишний не убрал?

 

Вобщем, хрень это всё. Пока не добьётесь признания своего ресурса пользователем, никакая оптимизация вам не поможет. Смотрите рутрекер, рутор. Там оптимизации - раз, два и обчелся! А посещалка - лям, или около! Работайте на признание публики, а не всякие коды оптимизированные. И будет вам щастя)))

 

Если не знаешь ответа на вопрос - будь добр проходи мимо.

А насчет ГС - у тебя, что супер ГС? Что ты отзываешься о труде других. 

Уважай чужой труд!

 

А это мне нужно прописать не для сайта, а для бота программы!

Link to post
Share on other sites

Если не знаешь ответа на вопрос - будь добр проходи мимо.

А насчет ГС - у тебя, что супер ГС? Что ты отзываешься о труде других. 

Уважай чужой труд!

 

А это мне нужно прописать не для сайта, а для бота программы!

ТС, вы несёте бред! Закрытие индексации якоря для бота программы о_О

И, ТС, что за невежество??? Мы на одной свадьбе на брудершафт не выпивали! Или спишем на школьный возраст? (школота в сети неадекватна)

Link to post
Share on other sites

ТС, вы несёте бред! Закрытие индексации якоря для бота программы о_О

И, ТС, что за невежество??? Мы на одной свадьбе на брудершафт не выпивали! Или спишем на школьный возраст? (школота в сети неадекватна)

 

Вы читать не умеете? Человек спросил как реализовать это, а не о том, есть смысл или нет. Раз спросил, значит нужно. 

Link to post
Share on other sites

Помогите закрыть от индексации якоря страниц, автоматически образующиеся при разбивки содержания.

 

Вот некоторые примеры якорей:

 

это отрезок - denwer/#_wordpress_denwer_8212

это отрезок - na-denwer/#WordPress

это отрезок - sayte-bloge/#mores-5

это отрезок - sayte-bloge/#mores-2

 

В общем надеюсь все поняли о чем я... 

 

Я делаю вот так в файле robots.txt, но не все работает:

 

Disallow: */#
Disallow: */#*
Disallow: */#__*
 
В общем мне нужно запретить к индексации все что после /#

 Даже если это выглядит так */#_record

 

Помогите понять, что не так?

Одного такого варианта должно хватать на всё

Disallow: */#*

Может вам нужно отдельно прописать Disallow: */#* для каждого робота: робота яндекса, гугла и для всех остальных роботов *.

Link to post
Share on other sites
  • 5 years later...

Коллеги, что за чушь вы тут пишете? Символ # в файле robots.txt используется добавления комментариев!

Любая из этих конструкций просто запрещает весь сайт к индексированию:    

Disallow: */#
Disallow: */#*
Disallow: */#__*
Link to post
Share on other sites
  • 4 months later...

Ну вот у меня якоря Гугл индексирует на ура, в выдаче куча якорей, не могу от них защититься. При том нормальная версия вылетает из индекса как копия https://yadi.sk/i/H_t11XVDPrLRwQ

Link to post
Share on other sites
9 часов назад, svetonosniy89 сказал:

Ну вот у меня якоря Гугл индексирует на ура, в выдаче куча якорей, не могу от них защититься. При том нормальная версия вылетает из индекса как копия https://yadi.sk/i/H_t11XVDPrLRwQ

В вашем случае это на хэши/якоря. Это AJAX супер-пупер технологии. Чтобы закрыть такие страницы, добавьте в роботс правило

Disallow: /?_escaped_fragment=*

Само собой вы должны понимать что делаете. + Правило в роботсе должно составляться с учетом того, где в ваших урлах находятся символы #!

Link to post
Share on other sites

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...