Jump to content

bandesign

Members
  • Content Count

    44
  • Joined

  • Last visited

Posts posted by bandesign


  1. bandesign вам Не мешало бы изучить правила форума.

    Пост № 14 - применение красного цвета.

    Пост № 18 и следующий за ним пост № 19 - поднятие темы более одного раза в сутки.

    Итог плачевный - 2 предупреждения в одной теме за один день.

    Извиняюсь, исправлюсь, не думал что так всё критично.


  2. Продолжил работу :)

    Сейчас сделал вот так:

     

    Disallow: /*ss=*
    Allow: /*p=*
    Allow: /portfolio.php?s=0&ss=0
    Allow: /portfolio.php?s=0&ss=1
    Allow: /portfolio.php?s=1&ss=0
    Allow: /portfolio.php?s=1&ss=1
    Allow: /portfolio.php?s=1&ss=4
    Allow: /portfolio.php?s=1&ss=7
    Allow: /portfolio.php?s=1&ss=5
    Allow: /portfolio.php?s=1&ss=2
    Allow: /portfolio.php?s=1&ss=3
    Allow: /portfolio.php?s=1&ss=6
    Allow: /portfolio.php?s=2&ss=0
    Allow: /portfolio.php?s=2&ss=1
    Allow: /portfolio.php?s=2&ss=2
    Allow: /portfolio.php?s=2&ss=3

     

    То есть закрыл все ссылки где встречается ss= и открыл несколько конкретных, которые нужны. Так же открыл p= это номер страницы, то есть ссылка типа /portfolio.php?s=0&ss=1&p=1 будет тоже открыта, если я правильно понимаю?

    Подскажите всё ли я верно сделал?

    И ещё вопрос, можно ли как-то "зашаблонить" список allow, который написал выше, то есть к примеру поставить шаблон для Allow: /portfolio.php?s=символ&ss=символ

    таким образом всё автоматизируется, подскажите пожалуйста как правильно это сделать?


  3. Пошел по пути запрещения ссылок с динной "бородой", то есть для примера запрещаю к регистрации /portfolio.php?work=104&s=1&ss=1 но при проверке sitemap.xml он говорит что запрещен урл /portfolio.php?work=104&s=1

    То есть он их видимо считает одинаковыми ссылками.

     

    Скорее всего директива Disallow: /*&ss= тут будет не уместна, результат будет такой же или нет?

    И да, вы правы по поводу что может угрохать половину сайта, так как есть несколько "общих" страниц в урл которых входит *&ss=

    Подскажите можно ли прописать сначала Disallow: /*&ss= а после Allow: /с перечислением нужных для регистрации урлов

    То есть:

    Disallow: /*&ss=

    Allow: /portfolio.php?s=1&ss=6 - эти страницы как правило без слова work в урле, и их не больше 10.

     

    Практикуется ли такое?

     

    UPD

    На данный момент закрыты вручную урлы с "бородой". Залил роботс, залил новый сайтмап.xml, гугл консоль пишет 37 предупреждений о том что ссылки типа /portfolio.php?work=104&s=1 (то есть без бороды с &ss= ) заблокированы в роботс.тхт

    Далее иду в Инструмент проверки файла роботс где ввожу portfolio.php?work=104&s=1 на который он ругался, но пишет Доступен, а если проверить portfolio.php?work=104&s=1&ss=1 (с бородой ss), то он Заблокирован.

    Далее захожу в Посмотреть как гуглбот ввожу ту же ссылку и нажимаю на Сканирование, пишет Готово, после чего жму для той же ссылки Получить и отобразить, пишет Частично выполнено

     

    После этих манипуляций я не очень понимаю противоречий самой гугл консоли, то она пишет 37 ошибок, но при проверке они проходят, а ссылка которую запретил в роботс, соответственно запрещена. Где логика?


  4. Можно ли автоматом в роботс присвоить Disallow:  для страниц в ссылках которых встречается комбинация &ss=

    Реально ли это как-то автоматизировать, чтобы каждую постоянно не забивать вручную?


  5. Тег в шапку внедрить не могу, так как страница генерируется пхп кодом, то есть CMS так построена...

    Сейчас я вижу вариант "обрубания" дублей с длинным хвостом в роботс, "короткие" сами по себе останутся, не хотелось бы конечно этого, т.к. в поиске немного из других подразделов страницы будут выдаваться, но всё же видимо прийдется. Или переписывать CMS сайта, но это вообще всё перелопатить, т.к. с проггером связи нет давным давно, если просить нового то ему во все это вникать очень долго (если заного) и с сохранением проиндексированной структуры сайта. Вот такие дела вообщем.


  6. https://www.google.com/webmasters/tools/robots-testing-tool

     

    Добавляете свой сайт, и проверяете каждый url вручную. 

    Ну а какой в этом смысл? Я и так прекрасно знаю что закрыто на данный момент, думал что можно как-то роботу указать на "полность" ссылки, а видимо нет, т.к. мне сказали тут что он это считает мусором, теперь я встал перед вопросом - как быть? :)


  7.  Жесть ... давненько не видел такого, не позавидуеш.

    Ну на мой взгляд ни чего сложного :), в чем конкретно жесть?

    Роботс и делаю постранично как видите, но вот столкнулся с проблемой о которой изложил тут.

    Как тестить каждый урл с учетом предыдущих директив?

     

    Что ещё можете посоветовать?

     

    Кстати, сейчас проверил, если закрыть для примера /portfolio.php?work=87&s=2  &ss=0   то она закрыта, а /portfolio.php?work=87&s=2 открыта


  8. Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой.

     

    Допустим закрываю я вот такую ссылку:

    Disallow: /portfolio.php?work=225&s=1

     

    Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК.

     

    Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1

    Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?


  9. Примерно неделю назад закрыл дубли страниц в роботс и вручную поудалял из из гугл вебмастера.

    Сегодня вижу такую картину:

     

     

    Последнее обновление 8 февр. 2016 г.

    Устранив следующие проблемы, вы сможете повысить качество и эффективность сайта.

    Метаописание Страницы Повторяющееся метаописание  108 Длинное метаописание 0 Короткие метаописания  8 Тег заголовка Страницы Отсутствующие заголовки (теги title)  2 Повторяющиеся заголовки (теги title)  110 Длинные заголовки (теги title) 0 Короткие заголовки (теги title) 0 Неинформативные заголовки (теги title) 0

     

     

    То есть робот заходил 8го числа, но почему-то не обновил инфу о дублях, почему так? Как долго он их переиндексирует?


  10. Всем привет, сейчас у многих есть проблема с заменой флеш баннеров на новоиспеченный гуглом формат HTML5.

    К сему вопрос, какой код использовать на своём (не вордпресс) сайте для вставки таких баннеров?

    Думаю, что многие задаются данным вопросом, а конкретного пути найти не могут. Прошу вас разяснить ситуацию по этому поводу.


  11. У меня такая проблемма:

    При написания CMS сайта, мы не учли момент возникновения дублей страниц с одинаковым наполнением.
    Вот конкретный пример:

    Яндекс в поиске выдаёт эту страницу http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2
    Гугл вот эту http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2 То есть идентичны они...
    
    Всего их несколько: 
    http://www.bandesign.ru/portfolio.php?s=2#work=210&s=2 (java окно) 
    http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2'>http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2 
    http://www.bandesign.ru/portfolio.php?s=2&ss=2&work=210 
    http://www.bandesign.ru/portfolio.php?work=210&s=2 
    http://www.bandesign.ru/portfolio.php?s=2&work=210

    Это всё одна и та же работа в портфолио, но вызывается из разных мест, с чуть видоизмененным урлом.

     

    В целом схема такая:
    -------------------- Все работы раздела / Итоговая страница
    ---------------------- /
    Портфолио / Раздел
    ---------------------- \
    -------------------- Работы конкретного подраздела / Итоговая страница

     

    То есть итоговая страница может вызываться из 2х разных мест, но уже с построением другого урла. Так как навигация на страницах разная, в зависимости из какого раздела она запущена. Итого имеем под 200 таких дублей, это скорее всего отрицательно влияет на выдачу.

     

    Так же у нас ещё сделано что из перечислинных работ в портфолио, если нажать на картинку работы, то открывается java окно, которое подставляет свой урл.

    Как пример http://www.bandesign.ru/portfolio.php?s=0 можете посмотреть тут.

    А если нажимать на текст под картинкой, то открывается полноценное окно с этой работой.

    По поводу ссылки на открытое java окно я не уверен, может оно и не видно для поисковиков как дубль, тут хотел об этом спросить у вас.

     

    Подскажите как лучше решить проблему таких дублей? Учитывая, что они будут появляться при выставлении новой работы в раздел портфолио.


  12.  

    В некоторых движках титл и Н1 это одно и тоже,так не должно быть!

    Это 2 самых весомых тега на странице, всегда разделяйте их, они не должны быть одинаковыми.

    Если я правильно понмаю, то тайтл на странице не должен совпадать с Н1? Тайтл и Н1 на одной и той же странице  я имею в виду а не на разных.


  13. У Вас сделана переадресация "домена с www" на домен "без www". У меня для всех сайтов практически выдает такое, если вбить в анализ домен с www. Ничего страшного в этом не вижу.

     

    Вот если бы Вам писали, что Ваш домен склеен с "ващекакойтолевыйсайт.ру" - вот тут уже было бы много вопросов

    То есть в принципе не обращать внимания? На выдачу наше положение не влияет в данный момент?


  14. Вопрос в том, что было первым: склейка или правка роботикс.

    Вероятнее всего вас роботикс изменили уже после индексации и склеки

    Уже не могу сказать, так как делалось это давно, скорее всего сделано было всё и сразу. Как быть теперь?


  15. Подскажите пожалуйста в чем именно дело. При проверке сайта через https://a.pr-cy.ru/www.bandesign.ru/ указывается ошибка "Яндекс считает домен (ТИЦ) склеенным с bandesign.ru".

    По какой причине это может быть? Ниже привожу код .htaccess сайта:

    DefaultLanguage ru
    AddDefaultCharset Windows-1251
    
    Options +FollowSymLinks
    RewriteEngine On
    RewriteCond %{HTTP_HOST} ^bandesign\.ru$ [NC]
    RewriteRule ^(.*)$ http://www.bandesign.ru/$1'>http://www.bandesign.ru/$1 [R=301,L]
    
    <IfModule mod_rewrite.c>
    RewriteEngine On
    RewriteCond %{REQUEST_FILENAME} !-f
    RewriteCond %{REQUEST_FILENAME} !-d
    RewriteCond %{QUERY_STRING} ^(.*)$
    RewriteRule ^(.+) index.php?req=$1&%1
    RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/
    RewriteRule ^index\.php$ http://www.bandesign.ru/ [R=301,L]
    </IfModule>
    
    ErrorDocument 404 http://www.bandesign.ru/404.php

    В чем может быть причина???

    Сам сервис анализа предлагает сделать вот так:

    Options +FollowSymLinks
    RewriteEngine on
    RewriteCond %{HTTP_HOST} ^bandesign\.ru
    RewriteRule ^(.*)$ http://bandesign.ru/$1 [R=permanent,L]
    
×
×
  • Create New...