Jump to content

Помогите закрыть якоря в роботс


Recommended Posts

Помогите закрыть от индексации якоря страниц, автоматически образующиеся при разбивки содержания.

 

Вот некоторые примеры якорей:

 

это отрезок - denwer/#_wordpress_denwer_8212

это отрезок - na-denwer/#WordPress

это отрезок - sayte-bloge/#mores-5

это отрезок - sayte-bloge/#mores-2

 

В общем надеюсь все поняли о чем я... 

 

Я делаю вот так в файле robots.txt, но не все работает:

 

Disallow: */#
Disallow: */#*
Disallow: */#__*
 
В общем мне нужно запретить к индексации все что после /#

 Даже если это выглядит так */#_record

 

Помогите понять, что не так?

 

Link to post
Share on other sites

Якоря не индексируются и не создают дублей страниц. Что site.ru/1.html, что site.ru/1.html#gfdgdfg site.ru/1.html#blalbla - это одна страница.

 Я насчет этого знаю, просто мне нужно для другой цели - о ней я не хочу говорить. И вот там нужно именно запретить в файле роботс.

Link to post
Share on other sites

Вы бы лучше помогли. а не флудили. 

То чем вы озабочены - ерунда на постном масле) Понасмотрятся курсо борисова и рядом с ними, и давай изыски внедрять на своих Гс. Потом вешают кликандеры-попандеры, сапы и партнёрки всякие неизвестного происхождения. Через пару месяцев все изыски плавно уходят в небытиё вместе с сайтами, разочарованный вебмастер в шоке - где это я дубль лишний не убрал?

Вобщем, хрень это всё. Пока не добьётесь признания своего ресурса пользователем, никакая оптимизация вам не поможет. Смотрите рутрекер, рутор. Там оптимизации - раз, два и обчелся! А посещалка - лям, или около! Работайте на признание публики, а не всякие коды оптимизированные. И будет вам щастя)))

Link to post
Share on other sites

То чем вы озабочены - ерунда на постном масле) Понасмотрятся курсо борисова и рядом с ними, и давай изыски внедрять на своих Гс. Потом вешают кликандеры-попандеры, сапы и партнёрки всякие неизвестного происхождения. Через пару месяцев все изыски плавно уходят в небытиё вместе с сайтами, разочарованный вебмастер в шоке - где это я дубль лишний не убрал?

 

Вобщем, хрень это всё. Пока не добьётесь признания своего ресурса пользователем, никакая оптимизация вам не поможет. Смотрите рутрекер, рутор. Там оптимизации - раз, два и обчелся! А посещалка - лям, или около! Работайте на признание публики, а не всякие коды оптимизированные. И будет вам щастя)))

 

Если не знаешь ответа на вопрос - будь добр проходи мимо.

А насчет ГС - у тебя, что супер ГС? Что ты отзываешься о труде других. 

Уважай чужой труд!

 

А это мне нужно прописать не для сайта, а для бота программы!

Link to post
Share on other sites

Если не знаешь ответа на вопрос - будь добр проходи мимо.

А насчет ГС - у тебя, что супер ГС? Что ты отзываешься о труде других. 

Уважай чужой труд!

 

А это мне нужно прописать не для сайта, а для бота программы!

ТС, вы несёте бред! Закрытие индексации якоря для бота программы о_О

И, ТС, что за невежество??? Мы на одной свадьбе на брудершафт не выпивали! Или спишем на школьный возраст? (школота в сети неадекватна)

Link to post
Share on other sites

ТС, вы несёте бред! Закрытие индексации якоря для бота программы о_О

И, ТС, что за невежество??? Мы на одной свадьбе на брудершафт не выпивали! Или спишем на школьный возраст? (школота в сети неадекватна)

 

Вы читать не умеете? Человек спросил как реализовать это, а не о том, есть смысл или нет. Раз спросил, значит нужно. 

Link to post
Share on other sites

Помогите закрыть от индексации якоря страниц, автоматически образующиеся при разбивки содержания.

 

Вот некоторые примеры якорей:

 

это отрезок - denwer/#_wordpress_denwer_8212

это отрезок - na-denwer/#WordPress

это отрезок - sayte-bloge/#mores-5

это отрезок - sayte-bloge/#mores-2

 

В общем надеюсь все поняли о чем я... 

 

Я делаю вот так в файле robots.txt, но не все работает:

 

Disallow: */#
Disallow: */#*
Disallow: */#__*
 
В общем мне нужно запретить к индексации все что после /#

 Даже если это выглядит так */#_record

 

Помогите понять, что не так?

Одного такого варианта должно хватать на всё

Disallow: */#*

Может вам нужно отдельно прописать Disallow: */#* для каждого робота: робота яндекса, гугла и для всех остальных роботов *.

Link to post
Share on other sites
  • 5 years later...

Коллеги, что за чушь вы тут пишете? Символ # в файле robots.txt используется добавления комментариев!

Любая из этих конструкций просто запрещает весь сайт к индексированию:    

Disallow: */#
Disallow: */#*
Disallow: */#__*
Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...