-
Content Count
44 -
Joined
-
Last visited
About bandesign
-
Rank
Местный
Profile Information
-
Ваш сайт
www.bandesign.ru
-
Специализация
Дизайн
-
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Извиняюсь, исправлюсь, не думал что так всё критично. -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Продолжил работу Сейчас сделал вот так: Disallow: /*ss=* Allow: /*p=* Allow: /portfolio.php?s=0&ss=0 Allow: /portfolio.php?s=0&ss=1 Allow: /portfolio.php?s=1&ss=0 Allow: /portfolio.php?s=1&ss=1 Allow: /portfolio.php?s=1&ss=4 Allow: /portfolio.php?s=1&ss=7 Allow: /portfolio.php?s=1&ss=5 Allow: /portfolio.php?s=1&ss=2 Allow: /portfolio.php?s=1&ss=3 Allow: /portfolio.php?s=1&ss=6 Allow: /portfolio.php?s=2&ss=0 Allow: /portfolio.php?s=2&ss=1 Allow: /portfolio.php?s=2&ss=2 Allow: /portfolio.php?s=2&ss=3 То есть закрыл все ссылки где -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Не очень понял вас по поводу адресов урл, которые имеют вес, а такой адрес как сейчас что не имеет веса? Имеет на мой взгляд, и ни чуть не меньше других. -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Это крайний вариант, не думаю что так всё плачевно, возможно есть пути и покороче и без накладов финансовых. -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Пошел по пути запрещения ссылок с динной "бородой", то есть для примера запрещаю к регистрации /portfolio.php?work=104&s=1&ss=1 но при проверке sitemap.xml он говорит что запрещен урл /portfolio.php?work=104&s=1 То есть он их видимо считает одинаковыми ссылками. Скорее всего директива Disallow: /*&ss= тут будет не уместна, результат будет такой же или нет? И да, вы правы по поводу что может угрохать половину сайта, так как есть несколько "общих" страниц в урл которых входит *&ss= Подскажите можно ли прописать сначала Disallow: /*&ss= а после Allow: /с перечислени -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Можно ли автоматом в роботс присвоить Disallow: для страниц в ссылках которых встречается комбинация &ss= Реально ли это как-то автоматизировать, чтобы каждую постоянно не забивать вручную? -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Тег в шапку внедрить не могу, так как страница генерируется пхп кодом, то есть CMS так построена... Сейчас я вижу вариант "обрубания" дублей с длинным хвостом в роботс, "короткие" сами по себе останутся, не хотелось бы конечно этого, т.к. в поиске немного из других подразделов страницы будут выдаваться, но всё же видимо прийдется. Или переписывать CMS сайта, но это вообще всё перелопатить, т.к. с проггером связи нет давным давно, если просить нового то ему во все это вникать очень долго (если заного) и с сохранением проиндексированной структуры сайта. Вот такие дела вообщем. -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Ну а какой в этом смысл? Я и так прекрасно знаю что закрыто на данный момент, думал что можно как-то роботу указать на "полность" ссылки, а видимо нет, т.к. мне сказали тут что он это считает мусором, теперь я встал перед вопросом - как быть? -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Ну на мой взгляд ни чего сложного , в чем конкретно жесть? Роботс и делаю постранично как видите, но вот столкнулся с проблемой о которой изложил тут. Как тестить каждый урл с учетом предыдущих директив? Что ещё можете посоветовать? Кстати, сейчас проверил, если закрыть для примера /portfolio.php?work=87&s=2 &ss=0 то она закрыта, а /portfolio.php?work=87&s=2 открыта -
Помогите разобраться с закрытием дублей в robots.txt
bandesign replied to bandesign's topic in kemelqwerty
Вот роботс - bandesign.ru/robots.txt -
Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой. Допустим закрываю я вот такую ссылку: Disallow: /portfolio.php?work=225&s=1 Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК. Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1 Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?
-
Да, сайт не особо большой, до 500 страниц. Будем ждать тогда.
-
Примерно неделю назад закрыл дубли страниц в роботс и вручную поудалял из из гугл вебмастера. Сегодня вижу такую картину: Последнее обновление 8 февр. 2016 г. Устранив следующие проблемы, вы сможете повысить качество и эффективность сайта. Метаописание Страницы Повторяющееся метаописание 108 Длинное метаописание 0 Короткие метаописания 8 Тег заголовка Страницы Отсутствующие заголовки (теги title) 2 Повторяющиеся заголовки (теги title) 110 Длинные заголовки (теги title) 0 Короткие заголовки (
-
Толк есть от любой рекламы, баннеры котируются. Сейчас опять мошла мода на хорошие гиф баннеры.
-
Можете просто привести конкретный код для вставки хтмл5 баннера?