Jump to content

Почему Яндекс перестал видеть ссылки в sitemap?


Recommended Posts

Имеем сайт на битриксе.

Раньше Яндекс прекрасно кушал ссылки из sitemap.xml В Вебмастере отображалось порядка 4000 страниц.

После переезда сайта на https, слетел тиц и с индексацией началась жесть.

Понятно, что яндекс стал исключать страницы с неглавным зеркалом, но он так же перестал видеть вновь сформированный sitemap с ссылками https.

Из 4000 страниц сейчас видит 26. Это временное явление или я что-то не так делаю?

При формировании нового sitemap прогой например xenu, тоже перестал видеть сслыки "Число ссылок в файле 0", хотя ранее всё было ок.

Link to post
Share on other sites

Все скоро вернется и ТИЦ и страницы. Тиц всегда слетает при переезде на https. Скоро проиндексирует и страницы. В sitemap их тоже переделайте на https и robots пропишите сайт с https 

Link to post
Share on other sites
15 часов назад, zanzibar_nulled сказал:

Все скоро вернется и ТИЦ и страницы. Тиц всегда слетает при переезде на https. Скоро проиндексирует и страницы. В sitemap их тоже переделайте на https и robots пропишите сайт с https 

В том и дело, что прописал везде https сразу же.

Переход на https делал специально на НГ праздники. Думал, что с рабочего января всё будет уже ок.

В вебмастере сейчас вот такая картина

http://joxi.ru/E2pgadZh9RNBNm

Link to post
Share on other sites
6 часов назад, ps70e сказал:

В том и дело, что прописал везде https сразу же.

Переход на https делал специально на НГ праздники. Думал, что с рабочего января всё будет уже ок.

В вебмастере сейчас вот такая картина

http://joxi.ru/E2pgadZh9RNBNm

Ну страницы повылетали после редиректа это понятно, устаканется со временем. А зачем сайтмап с помощью ксену делать? Для битрикса других решений нет?

Link to post
Share on other sites
23 минуты назад, petroff сказал:

Ну страницы повылетали после редиректа это понятно, устаканется со временем. А зачем сайтмап с помощью ксену делать? Для битрикса других решений нет?

Битрикс автоматом формирует sitemap, сам разбивает на sitemap_iblock и в общем то всё круто, но...

При экспериментировании (с гуглом), я формировал через ксену отдельный сайтмап и он в Яндексе индексировался бодрее… на порядок бодрее.

По этому, я не могу понять почему сейчас с новыми ссылками этот фокус не прокатывает.

Link to post
Share on other sites
1 час назад, ps70e сказал:

По этому, я не могу понять почему сейчас с новыми ссылками этот фокус не прокатывает.

Проверяйте карту сайта в валидаторе

https://webmaster.yandex.ru/tools/sitemap/

Xenu, ну х.з., вероятно эта программа соберет в файл вообще все ссылки с сайта. Надо ли оно? 

1 час назад, ps70e сказал:

А сколько времени нужно?

Несколько месяцев или "как повезет"

Link to post
Share on other sites

А Вы зачем в sitemap засунули весь свой мусор? 

Например: sitemap_files.xml есть вот такие ссылки info/more/buttons/ или info/more/elements/ Они для Вас так сильно важны?

Например: sitemap_iblock_2.xml все ссылки отдают код 404

Почему не один sitemap ?, это же удобней. У Вас не так много страниц. Хотя это не принципиально важно. 

 

Link to post
Share on other sites
11 час назад, ps70e сказал:

Все правильно, в карте сайта lep-snab.ru/sitemap.xml около 30 файлов со ссылками на страницы сайта. Вероятно, что так было и раньше. Тут вроде как все нормально. В карте сайта lep-snab.ru/12012018.xml, как и предполагалось, собраны ссылки со всего сайта. Там могут быть страницы не закрытые от индексации тегами или роботсом. Вот например одна из таких страниц lep-snab.ru/company/?. Это дубль страницы lep-snab.ru/company/ и таких страниц может быть много. Дубли не только негативно сказываются на позициях сайта, но и увеличивают время переиндексации при смене протокола. Поэтому Ваши эксперименты с xenu не очень хорошая идея. Если дублирующих страниц много, то Яндекс и год может сайт с новым протоколом переиндексировать. Если есть время, то в принципе ничего страшного

Link to post
Share on other sites
22 часа назад, petroff сказал:

Все правильно, в карте сайта lep-snab.ru/sitemap.xml около 30 файлов со ссылками на страницы сайта. Вероятно, что так было и раньше. Тут вроде как все нормально. В карте сайта lep-snab.ru/12012018.xml, как и предполагалось, собраны ссылки со всего сайта. Там могут быть страницы не закрытые от индексации тегами или роботсом. Вот например одна из таких страниц lep-snab.ru/company/?. Это дубль страницы lep-snab.ru/company/ и таких страниц может быть много. Дубли не только негативно сказываются на позициях сайта, но и увеличивают время переиндексации при смене протокола. Поэтому Ваши эксперименты с xenu не очень хорошая идея. Если дублирующих страниц много, то Яндекс и год может сайт с новым протоколом переиндексировать. Если есть время, то в принципе ничего страшного

Т.е. я так понимаю с новым протоколом, старые фокусы только во вред.

Спасибо!

Link to post
Share on other sites
1 час назад, ps70e сказал:

Т.е. я так понимаю с новым протоколом, старые фокусы только во вред.

Спасибо!

Собрать все ссылки с сайта и скормить их ботам это вообще не фокус. В зависимости от настройки robots.txt и движка, всё это может вылиться как в - так и в +. Я не смотрел полностью какие у Вас там ссылки в файле, но на первом экране сразу увидел ссылку, которая поисковикам не нужна

Link to post
Share on other sites

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...