Jump to content

bandesign

Members
  • Content Count

    44
  • Joined

  • Last visited

Everything posted by bandesign

  1. Извиняюсь, исправлюсь, не думал что так всё критично.
  2. Продолжил работу Сейчас сделал вот так: Disallow: /*ss=* Allow: /*p=* Allow: /portfolio.php?s=0&ss=0 Allow: /portfolio.php?s=0&ss=1 Allow: /portfolio.php?s=1&ss=0 Allow: /portfolio.php?s=1&ss=1 Allow: /portfolio.php?s=1&ss=4 Allow: /portfolio.php?s=1&ss=7 Allow: /portfolio.php?s=1&ss=5 Allow: /portfolio.php?s=1&ss=2 Allow: /portfolio.php?s=1&ss=3 Allow: /portfolio.php?s=1&ss=6 Allow: /portfolio.php?s=2&ss=0 Allow: /portfolio.php?s=2&ss=1 Allow: /portfolio.php?s=2&ss=2 Allow: /portfolio.php?s=2&ss=3 То есть закрыл все ссылки где встречается ss= и открыл несколько конкретных, которые нужны. Так же открыл p= это номер страницы, то есть ссылка типа /portfolio.php?s=0&ss=1&p=1 будет тоже открыта, если я правильно понимаю? Подскажите всё ли я верно сделал? И ещё вопрос, можно ли как-то "зашаблонить" список allow, который написал выше, то есть к примеру поставить шаблон для Allow: /portfolio.php?s=символ&ss=символ таким образом всё автоматизируется, подскажите пожалуйста как правильно это сделать?
  3. Не очень понял вас по поводу адресов урл, которые имеют вес, а такой адрес как сейчас что не имеет веса? Имеет на мой взгляд, и ни чуть не меньше других.
  4. Это крайний вариант, не думаю что так всё плачевно, возможно есть пути и покороче и без накладов финансовых.
  5. Пошел по пути запрещения ссылок с динной "бородой", то есть для примера запрещаю к регистрации /portfolio.php?work=104&s=1&ss=1 но при проверке sitemap.xml он говорит что запрещен урл /portfolio.php?work=104&s=1 То есть он их видимо считает одинаковыми ссылками. Скорее всего директива Disallow: /*&ss= тут будет не уместна, результат будет такой же или нет? И да, вы правы по поводу что может угрохать половину сайта, так как есть несколько "общих" страниц в урл которых входит *&ss= Подскажите можно ли прописать сначала Disallow: /*&ss= а после Allow: /с перечислением нужных для регистрации урлов То есть: Disallow: /*&ss= Allow: /portfolio.php?s=1&ss=6 - эти страницы как правило без слова work в урле, и их не больше 10. Практикуется ли такое? UPD На данный момент закрыты вручную урлы с "бородой". Залил роботс, залил новый сайтмап.xml, гугл консоль пишет 37 предупреждений о том что ссылки типа /portfolio.php?work=104&s=1 (то есть без бороды с &ss= ) заблокированы в роботс.тхт Далее иду в Инструмент проверки файла роботс где ввожу portfolio.php?work=104&s=1 на который он ругался, но пишет Доступен, а если проверить portfolio.php?work=104&s=1&ss=1 (с бородой ss), то он Заблокирован. Далее захожу в Посмотреть как гуглбот ввожу ту же ссылку и нажимаю на Сканирование, пишет Готово, после чего жму для той же ссылки Получить и отобразить, пишет Частично выполнено После этих манипуляций я не очень понимаю противоречий самой гугл консоли, то она пишет 37 ошибок, но при проверке они проходят, а ссылка которую запретил в роботс, соответственно запрещена. Где логика?
  6. Можно ли автоматом в роботс присвоить Disallow: для страниц в ссылках которых встречается комбинация &ss= Реально ли это как-то автоматизировать, чтобы каждую постоянно не забивать вручную?
  7. Тег в шапку внедрить не могу, так как страница генерируется пхп кодом, то есть CMS так построена... Сейчас я вижу вариант "обрубания" дублей с длинным хвостом в роботс, "короткие" сами по себе останутся, не хотелось бы конечно этого, т.к. в поиске немного из других подразделов страницы будут выдаваться, но всё же видимо прийдется. Или переписывать CMS сайта, но это вообще всё перелопатить, т.к. с проггером связи нет давным давно, если просить нового то ему во все это вникать очень долго (если заного) и с сохранением проиндексированной структуры сайта. Вот такие дела вообщем.
  8. Ну а какой в этом смысл? Я и так прекрасно знаю что закрыто на данный момент, думал что можно как-то роботу указать на "полность" ссылки, а видимо нет, т.к. мне сказали тут что он это считает мусором, теперь я встал перед вопросом - как быть?
  9. Ну на мой взгляд ни чего сложного , в чем конкретно жесть? Роботс и делаю постранично как видите, но вот столкнулся с проблемой о которой изложил тут. Как тестить каждый урл с учетом предыдущих директив? Что ещё можете посоветовать? Кстати, сейчас проверил, если закрыть для примера /portfolio.php?work=87&s=2 &ss=0 то она закрыта, а /portfolio.php?work=87&s=2 открыта
  10. Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой. Допустим закрываю я вот такую ссылку: Disallow: /portfolio.php?work=225&s=1 Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК. Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1 Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?
  11. Да, сайт не особо большой, до 500 страниц. Будем ждать тогда.
  12. Примерно неделю назад закрыл дубли страниц в роботс и вручную поудалял из из гугл вебмастера. Сегодня вижу такую картину: Последнее обновление 8 февр. 2016 г. Устранив следующие проблемы, вы сможете повысить качество и эффективность сайта. Метаописание Страницы Повторяющееся метаописание 108 Длинное метаописание 0 Короткие метаописания 8 Тег заголовка Страницы Отсутствующие заголовки (теги title) 2 Повторяющиеся заголовки (теги title) 110 Длинные заголовки (теги title) 0 Короткие заголовки (теги title) 0 Неинформативные заголовки (теги title) 0 То есть робот заходил 8го числа, но почему-то не обновил инфу о дублях, почему так? Как долго он их переиндексирует?
  13. Толк есть от любой рекламы, баннеры котируются. Сейчас опять мошла мода на хорошие гиф баннеры.
  14. Можете просто привести конкретный код для вставки хтмл5 баннера?
  15. Всем привет, сейчас у многих есть проблема с заменой флеш баннеров на новоиспеченный гуглом формат HTML5. К сему вопрос, какой код использовать на своём (не вордпресс) сайте для вставки таких баннеров? Думаю, что многие задаются данным вопросом, а конкретного пути найти не могут. Прошу вас разяснить ситуацию по этому поводу.
  16. У меня такая проблемма: При написания CMS сайта, мы не учли момент возникновения дублей страниц с одинаковым наполнением. Вот конкретный пример: Яндекс в поиске выдаёт эту страницу http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2 Гугл вот эту http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2 То есть идентичны они... Всего их несколько: http://www.bandesign.ru/portfolio.php?s=2#work=210&s=2 (java окно) http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2 http://www.bandesign.ru/portfolio.php?s=2&ss=2&work=210 http://www.bandesign.ru/portfolio.php?work=210&s=2 http://www.bandesign.ru/portfolio.php?s=2&work=210 Это всё одна и та же работа в портфолио, но вызывается из разных мест, с чуть видоизмененным урлом. В целом схема такая: -------------------- Все работы раздела / Итоговая страница ---------------------- / Портфолио / Раздел ---------------------- \ -------------------- Работы конкретного подраздела / Итоговая страница То есть итоговая страница может вызываться из 2х разных мест, но уже с построением другого урла. Так как навигация на страницах разная, в зависимости из какого раздела она запущена. Итого имеем под 200 таких дублей, это скорее всего отрицательно влияет на выдачу. Так же у нас ещё сделано что из перечислинных работ в портфолио, если нажать на картинку работы, то открывается java окно, которое подставляет свой урл. Как пример http://www.bandesign.ru/portfolio.php?s=0 можете посмотреть тут. А если нажимать на текст под картинкой, то открывается полноценное окно с этой работой. По поводу ссылки на открытое java окно я не уверен, может оно и не видно для поисковиков как дубль, тут хотел об этом спросить у вас. Подскажите как лучше решить проблему таких дублей? Учитывая, что они будут появляться при выставлении новой работы в раздел портфолио.
  17. Если можно, посоветуйте пожалуйста материал для прочтения, касаемый этой темы конкретно.
  18. Если я правильно понмаю, то тайтл на странице не должен совпадать с Н1? Тайтл и Н1 на одной и той же странице я имею в виду а не на разных.
  19. То есть в принципе не обращать внимания? На выдачу наше положение не влияет в данный момент?
  20. Уже не могу сказать, так как делалось это давно, скорее всего сделано было всё и сразу. Как быть теперь?
  21. Подскажите пожалуйста в чем именно дело. При проверке сайта через https://a.pr-cy.ru/www.bandesign.ru/ указывается ошибка "Яндекс считает домен (ТИЦ) склеенным с bandesign.ru". По какой причине это может быть? Ниже привожу код .htaccess сайта: DefaultLanguage ru AddDefaultCharset Windows-1251 Options +FollowSymLinks RewriteEngine On RewriteCond %{HTTP_HOST} ^bandesign\.ru$ [NC] RewriteRule ^(.*)$ http://www.bandesign.ru/$1'>http://www.bandesign.ru/$1 [R=301,L] <IfModule mod_rewrite.c> RewriteEngine On RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{QUERY_STRING} ^(.*)$ RewriteRule ^(.+) index.php?req=$1&%1 RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/ RewriteRule ^index\.php$ http://www.bandesign.ru/ [R=301,L] </IfModule> ErrorDocument 404 http://www.bandesign.ru/404.php В чем может быть причина??? Сам сервис анализа предлагает сделать вот так: Options +FollowSymLinks RewriteEngine on RewriteCond %{HTTP_HOST} ^bandesign\.ru RewriteRule ^(.*)$ http://bandesign.ru/$1 [R=permanent,L]
  22. Ну это вы так думаете, а робот может подумать и подругому, верно?
×
×
  • Create New...