bandesign

Members
  • Content count

    44
  • Joined

  • Last visited

About bandesign

  • Rank
    Местный

Contact Methods

  • Website URL
    http://www.bandesign.ru

Profile Information

  • Пол
  • Ваш сайт
    www.bandesign.ru
  • Специализация
    Дизайн
  1. Извиняюсь, исправлюсь, не думал что так всё критично.
  2. Продолжил работу Сейчас сделал вот так: Disallow: /*ss=* Allow: /*p=* Allow: /portfolio.php?s=0&ss=0 Allow: /portfolio.php?s=0&ss=1 Allow: /portfolio.php?s=1&ss=0 Allow: /portfolio.php?s=1&ss=1 Allow: /portfolio.php?s=1&ss=4 Allow: /portfolio.php?s=1&ss=7 Allow: /portfolio.php?s=1&ss=5 Allow: /portfolio.php?s=1&ss=2 Allow: /portfolio.php?s=1&ss=3 Allow: /portfolio.php?s=1&ss=6 Allow: /portfolio.php?s=2&ss=0 Allow: /portfolio.php?s=2&ss=1 Allow: /portfolio.php?s=2&ss=2 Allow: /portfolio.php?s=2&ss=3 То есть закрыл все ссылки где встречается ss= и открыл несколько конкретных, которые нужны. Так же открыл p= это номер страницы, то есть ссылка типа /portfolio.php?s=0&ss=1&p=1 будет тоже открыта, если я правильно понимаю? Подскажите всё ли я верно сделал? И ещё вопрос, можно ли как-то "зашаблонить" список allow, который написал выше, то есть к примеру поставить шаблон для Allow: /portfolio.php?s=символ&ss=символ таким образом всё автоматизируется, подскажите пожалуйста как правильно это сделать?
  3. Не очень понял вас по поводу адресов урл, которые имеют вес, а такой адрес как сейчас что не имеет веса? Имеет на мой взгляд, и ни чуть не меньше других.
  4. Это крайний вариант, не думаю что так всё плачевно, возможно есть пути и покороче и без накладов финансовых.
  5. Пошел по пути запрещения ссылок с динной "бородой", то есть для примера запрещаю к регистрации /portfolio.php?work=104&s=1&ss=1 но при проверке sitemap.xml он говорит что запрещен урл /portfolio.php?work=104&s=1 То есть он их видимо считает одинаковыми ссылками. Скорее всего директива Disallow: /*&ss= тут будет не уместна, результат будет такой же или нет? И да, вы правы по поводу что может угрохать половину сайта, так как есть несколько "общих" страниц в урл которых входит *&ss= Подскажите можно ли прописать сначала Disallow: /*&ss= а после Allow: /с перечислением нужных для регистрации урлов То есть: Disallow: /*&ss= Allow: /portfolio.php?s=1&ss=6 - эти страницы как правило без слова work в урле, и их не больше 10. Практикуется ли такое? UPD На данный момент закрыты вручную урлы с "бородой". Залил роботс, залил новый сайтмап.xml, гугл консоль пишет 37 предупреждений о том что ссылки типа /portfolio.php?work=104&s=1 (то есть без бороды с &ss= ) заблокированы в роботс.тхт Далее иду в Инструмент проверки файла роботс где ввожу portfolio.php?work=104&s=1 на который он ругался, но пишет Доступен, а если проверить portfolio.php?work=104&s=1&ss=1 (с бородой ss), то он Заблокирован. Далее захожу в Посмотреть как гуглбот ввожу ту же ссылку и нажимаю на Сканирование, пишет Готово, после чего жму для той же ссылки Получить и отобразить, пишет Частично выполнено После этих манипуляций я не очень понимаю противоречий самой гугл консоли, то она пишет 37 ошибок, но при проверке они проходят, а ссылка которую запретил в роботс, соответственно запрещена. Где логика?
  6. Можно ли автоматом в роботс присвоить Disallow: для страниц в ссылках которых встречается комбинация &ss= Реально ли это как-то автоматизировать, чтобы каждую постоянно не забивать вручную?
  7. Тег в шапку внедрить не могу, так как страница генерируется пхп кодом, то есть CMS так построена... Сейчас я вижу вариант "обрубания" дублей с длинным хвостом в роботс, "короткие" сами по себе останутся, не хотелось бы конечно этого, т.к. в поиске немного из других подразделов страницы будут выдаваться, но всё же видимо прийдется. Или переписывать CMS сайта, но это вообще всё перелопатить, т.к. с проггером связи нет давным давно, если просить нового то ему во все это вникать очень долго (если заного) и с сохранением проиндексированной структуры сайта. Вот такие дела вообщем.
  8. Ну а какой в этом смысл? Я и так прекрасно знаю что закрыто на данный момент, думал что можно как-то роботу указать на "полность" ссылки, а видимо нет, т.к. мне сказали тут что он это считает мусором, теперь я встал перед вопросом - как быть?
  9. Ну на мой взгляд ни чего сложного , в чем конкретно жесть? Роботс и делаю постранично как видите, но вот столкнулся с проблемой о которой изложил тут. Как тестить каждый урл с учетом предыдущих директив? Что ещё можете посоветовать? Кстати, сейчас проверил, если закрыть для примера /portfolio.php?work=87&s=2 &ss=0 то она закрыта, а /portfolio.php?work=87&s=2 открыта
  10. Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой. Допустим закрываю я вот такую ссылку: Disallow: /portfolio.php?work=225&s=1 Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК. Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1 Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?
  11. Да, сайт не особо большой, до 500 страниц. Будем ждать тогда.
  12. Примерно неделю назад закрыл дубли страниц в роботс и вручную поудалял из из гугл вебмастера. Сегодня вижу такую картину: Последнее обновление 8 февр. 2016 г. Устранив следующие проблемы, вы сможете повысить качество и эффективность сайта. Метаописание Страницы Повторяющееся метаописание 108 Длинное метаописание 0 Короткие метаописания 8 Тег заголовка Страницы Отсутствующие заголовки (теги title) 2 Повторяющиеся заголовки (теги title) 110 Длинные заголовки (теги title) 0 Короткие заголовки (теги title) 0 Неинформативные заголовки (теги title) 0 То есть робот заходил 8го числа, но почему-то не обновил инфу о дублях, почему так? Как долго он их переиндексирует?
  13. Толк есть от любой рекламы, баннеры котируются. Сейчас опять мошла мода на хорошие гиф баннеры.
  14. Можете просто привести конкретный код для вставки хтмл5 баннера?