Jump to content

bandesign

Members
  • Content Count

    44
  • Joined

  • Last visited

Everything posted by bandesign

  1. Извиняюсь, исправлюсь, не думал что так всё критично.
  2. Продолжил работу Сейчас сделал вот так: Disallow: /*ss=* Allow: /*p=* Allow: /portfolio.php?s=0&ss=0 Allow: /portfolio.php?s=0&ss=1 Allow: /portfolio.php?s=1&ss=0 Allow: /portfolio.php?s=1&ss=1 Allow: /portfolio.php?s=1&ss=4 Allow: /portfolio.php?s=1&ss=7 Allow: /portfolio.php?s=1&ss=5 Allow: /portfolio.php?s=1&ss=2 Allow: /portfolio.php?s=1&ss=3 Allow: /portfolio.php?s=1&ss=6 Allow: /portfolio.php?s=2&ss=0 Allow: /portfolio.php?s=2&ss=1 Allow: /portfolio.php?s=2&ss=2 Allow: /portfolio.php?s=2&ss=3 То есть закрыл все ссылки где
  3. Не очень понял вас по поводу адресов урл, которые имеют вес, а такой адрес как сейчас что не имеет веса? Имеет на мой взгляд, и ни чуть не меньше других.
  4. Это крайний вариант, не думаю что так всё плачевно, возможно есть пути и покороче и без накладов финансовых.
  5. Пошел по пути запрещения ссылок с динной "бородой", то есть для примера запрещаю к регистрации /portfolio.php?work=104&s=1&ss=1 но при проверке sitemap.xml он говорит что запрещен урл /portfolio.php?work=104&s=1 То есть он их видимо считает одинаковыми ссылками. Скорее всего директива Disallow: /*&ss= тут будет не уместна, результат будет такой же или нет? И да, вы правы по поводу что может угрохать половину сайта, так как есть несколько "общих" страниц в урл которых входит *&ss= Подскажите можно ли прописать сначала Disallow: /*&ss= а после Allow: /с перечислени
  6. Можно ли автоматом в роботс присвоить Disallow: для страниц в ссылках которых встречается комбинация &ss= Реально ли это как-то автоматизировать, чтобы каждую постоянно не забивать вручную?
  7. Тег в шапку внедрить не могу, так как страница генерируется пхп кодом, то есть CMS так построена... Сейчас я вижу вариант "обрубания" дублей с длинным хвостом в роботс, "короткие" сами по себе останутся, не хотелось бы конечно этого, т.к. в поиске немного из других подразделов страницы будут выдаваться, но всё же видимо прийдется. Или переписывать CMS сайта, но это вообще всё перелопатить, т.к. с проггером связи нет давным давно, если просить нового то ему во все это вникать очень долго (если заного) и с сохранением проиндексированной структуры сайта. Вот такие дела вообщем.
  8. Ну а какой в этом смысл? Я и так прекрасно знаю что закрыто на данный момент, думал что можно как-то роботу указать на "полность" ссылки, а видимо нет, т.к. мне сказали тут что он это считает мусором, теперь я встал перед вопросом - как быть?
  9. Ну на мой взгляд ни чего сложного , в чем конкретно жесть? Роботс и делаю постранично как видите, но вот столкнулся с проблемой о которой изложил тут. Как тестить каждый урл с учетом предыдущих директив? Что ещё можете посоветовать? Кстати, сейчас проверил, если закрыть для примера /portfolio.php?work=87&s=2 &ss=0 то она закрыта, а /portfolio.php?work=87&s=2 открыта
  10. Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой. Допустим закрываю я вот такую ссылку: Disallow: /portfolio.php?work=225&s=1 Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК. Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1 Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?
  11. Да, сайт не особо большой, до 500 страниц. Будем ждать тогда.
  12. Примерно неделю назад закрыл дубли страниц в роботс и вручную поудалял из из гугл вебмастера. Сегодня вижу такую картину: Последнее обновление 8 февр. 2016 г. Устранив следующие проблемы, вы сможете повысить качество и эффективность сайта. Метаописание Страницы Повторяющееся метаописание 108 Длинное метаописание 0 Короткие метаописания 8 Тег заголовка Страницы Отсутствующие заголовки (теги title) 2 Повторяющиеся заголовки (теги title) 110 Длинные заголовки (теги title) 0 Короткие заголовки (
  13. Толк есть от любой рекламы, баннеры котируются. Сейчас опять мошла мода на хорошие гиф баннеры.
  14. Можете просто привести конкретный код для вставки хтмл5 баннера?
  15. Всем привет, сейчас у многих есть проблема с заменой флеш баннеров на новоиспеченный гуглом формат HTML5. К сему вопрос, какой код использовать на своём (не вордпресс) сайте для вставки таких баннеров? Думаю, что многие задаются данным вопросом, а конкретного пути найти не могут. Прошу вас разяснить ситуацию по этому поводу.
  16. У меня такая проблемма: При написания CMS сайта, мы не учли момент возникновения дублей страниц с одинаковым наполнением. Вот конкретный пример: Яндекс в поиске выдаёт эту страницу http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2 Гугл вот эту http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2 То есть идентичны они... Всего их несколько: http://www.bandesign.ru/portfolio.php?s=2#work=210&s=2 (java окно) http://www.bandesign
  17. Если можно, посоветуйте пожалуйста материал для прочтения, касаемый этой темы конкретно.
  18. Если я правильно понмаю, то тайтл на странице не должен совпадать с Н1? Тайтл и Н1 на одной и той же странице я имею в виду а не на разных.
  19. То есть в принципе не обращать внимания? На выдачу наше положение не влияет в данный момент?
  20. Уже не могу сказать, так как делалось это давно, скорее всего сделано было всё и сразу. Как быть теперь?
  21. Подскажите пожалуйста в чем именно дело. При проверке сайта через https://a.pr-cy.ru/www.bandesign.ru/ указывается ошибка "Яндекс считает домен (ТИЦ) склеенным с bandesign.ru". По какой причине это может быть? Ниже привожу код .htaccess сайта: DefaultLanguage ru AddDefaultCharset Windows-1251 Options +FollowSymLinks RewriteEngine On RewriteCond %{HTTP_HOST} ^bandesign\.ru$ [NC] RewriteRule ^(.*)$ http://www.bandesign.ru/$1'>http://www.bandesign.ru/$1 [R=301,L] <IfModule mod_rewrite.c> RewriteEngine On RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d Rewrite
  22. Ну это вы так думаете, а робот может подумать и подругому, верно?
×
×
  • Create New...