Jump to content

Andret

Новичок
  • Content Count

    12
  • Joined

  • Last visited

About Andret

  • Rank
    Пользователь

Profile Information

  • Специализация
    Вебмастер
  1. Подскажите, если у меня в ПС Гугла шас около 500 страниц с https://www.сайт.юа но основное продвижения я веду без www. Что мне делать с этими страницами (те что с www) в ПС ? Удалить их в ручную с гугл серч консоли, или не трогать их?
  2. занеси все 3 сайта www, без www и тот что надо https Что значит занести? куда их занести? Не понял
  3. Добрый день Подскажите, кто компетентный, столкнулся с такой проблемой. При индексирвоании в Гугл, попадаю тстраницы с адерсами www.сайт.юа/раздел/страница.html Хотя весб сайт работает без www Изначально в .htacces настроена переадерсация с www.сайт.юа на https://сайт.юа но вот внутрении страницы не переадресовываются. В sitemap.xml прописаны все страницы без www. Однако гугл берет и индексирует страницы сwww.Получается дубль контента. У меня вопрос: это так должно быть или может в робот.тхт запретить все что начинается с www.сайт.юа. Но я не знаю насколько єто допустимо, что бы хуже не сделать? Или это нужными сложными рег выражениями настраивать переадресации на все внутренние страницы сайта? Или почему в индекс попадают страницы с www. Я их нигде не показываю. Помогите разобраться, удалять руками дубли уже достало.
  4. А как мне почистить кеш ПС с этими бесполезными страницами , как их посмотреть, что бы удалить ?
  5. Да, но там хоть URL нормальные, без фильтров. на данный момент для таких страниц настроена опция rel="canonical" , т.е. контент одинаковый, но уникальная страница 1на. Или эти страницы тоже нужно отлавливать и удалять с индекса, несмотря на то что на них rel="canonical" щас прописано уже?
  6. Собственно, когда в гугле пишет вот такое (см. скрин) не значит ли это, что кроме этих страниц что он показал, еще в кеше есть 197шт. которые потом вылезут?
  7. Всем привет. Вопрос знатокам. Настраивал сайт ,и по глупому совету, в момент разработки сайта открыл robot.txt. На то время, в нем не были прописаны запреты на фильтры В итоге в ПС Google попало около 4 тис страниц, хотя по факту их 135. Потом разобрался, прописал правильно robot.txt ,ввел в запрет все служебные папки и все фильтры В ручном режиме, через Google Search Console удалил порядка 2,5 тис страниц. Индексированные страницы почистились. Щас прошла новая индексация, и на одном, ненужном каталоге (производители) опять появилось 200 проиндексированных страниц, с фильтрами , которые запрещены в robot.txt Вопрос: Это Гугл игнорирует запреты робот.тхт и индексирует эти страницы или это возможно он их где-то с кеша достает. Т.к. после ручного удаления, в данном каталоге не было ниодной проиндексированной страницы, а щас опять 200 страниц, при этом URL такие, которых я раньше не удалял. (проверял командом site:http://сайт.com.ua/brands/ Откуда они взялись, если в robot.txt они закрыты.
  8. И вот вроде оно, https://serpstat.com/ru/blog/podrobnaya-instruktciya-po-redirektam-kogda-i-kak-ih-ispolzovat/ Кто в этом понимает, HELP!!!
  9. Вот часть решения https://beget.com/ru/articles/htaccess#simple_redirect mod_rewrite Есть понимающие в его константах и переменных?
  10. А причем тут настройка битрикса. Это вопрос к разработчикам. Кривых решений наделали, а люди потом мучаться. Жаль только что репутация этого движка, в полной мере открывается уже после того, как Вы ее купили. Мне щас нужна помошь в написании 2 строк регулярног овыражения: Условие + Редирект. Если вы не можете в этом помочь, к чему тут разводить демогогию.
  11. Это не решение. А когда будет 100 страниц, еще 100 строк в htaccessдописывать. Для человека котоырй понимает в регулярных выражениях и функциях сервера это дело 5 минут. Поэтому и ищу тут такого человека. Прописать 100 редиректов я успею в любое время.
  12. Добрый день. Вопрос по 301 редиректу. В интеренете на разных форумах уйма информации, но ответа конкретного, однозначного и что бы работал нигде нету. Задача следующая. Интернет-магазин на движке 1C Bitrix. Сервер Apache. Настройка через файл .htaccess Страница твоара доступна по двум адресам: site.com/dir1/dir2/page.html и site.com/dir1/page.html Т.е. на товар можно зайти с категории, и соответсвенно с подкатегории. Что бы убрать дубль контента, нужен 301 редирект. Все бы ничего, если бы это была 1на страница, тогда это решил бы стандартным способом, например Redirect 301 termoregulyatory-heat-plus/knopochnye/m6-716-white.html https://solray.com.ua/termoregulyatory-heat-plus/m6-716-white.html Однако у меня на сайте таких страниц больше 50. И на каждый товар такое прописывать это затратно как по времени, так и по ресурсах. Сложности еще добавлячет то, что в URL у меня присутсвуют дефисы (-). Насколько я понимаю тут нужно прописать несложное рег выражение, с названием категории, и повторить его для каждой категори сайта. Может кто помочь с этим? Буду очень благодарен.
×
×
  • Create New...