Jump to content

Почему Яндекс перестал видеть ссылки в sitemap?


Recommended Posts

Имеем сайт на битриксе.

Раньше Яндекс прекрасно кушал ссылки из sitemap.xml В Вебмастере отображалось порядка 4000 страниц.

После переезда сайта на https, слетел тиц и с индексацией началась жесть.

Понятно, что яндекс стал исключать страницы с неглавным зеркалом, но он так же перестал видеть вновь сформированный sitemap с ссылками https.

Из 4000 страниц сейчас видит 26. Это временное явление или я что-то не так делаю?

При формировании нового sitemap прогой например xenu, тоже перестал видеть сслыки "Число ссылок в файле 0", хотя ранее всё было ок.

Link to post
Share on other sites

Есть вопрос? Задай его профессиональным веб-мастерам, SEO и другим специалистам!

Все скоро вернется и ТИЦ и страницы. Тиц всегда слетает при переезде на https. Скоро проиндексирует и страницы. В sitemap их тоже переделайте на https и robots пропишите сайт с https 

Link to post
Share on other sites
15 часов назад, zanzibar_nulled сказал:

Все скоро вернется и ТИЦ и страницы. Тиц всегда слетает при переезде на https. Скоро проиндексирует и страницы. В sitemap их тоже переделайте на https и robots пропишите сайт с https 

В том и дело, что прописал везде https сразу же.

Переход на https делал специально на НГ праздники. Думал, что с рабочего января всё будет уже ок.

В вебмастере сейчас вот такая картина

http://joxi.ru/E2pgadZh9RNBNm

Link to post
Share on other sites
6 часов назад, ps70e сказал:

В том и дело, что прописал везде https сразу же.

Переход на https делал специально на НГ праздники. Думал, что с рабочего января всё будет уже ок.

В вебмастере сейчас вот такая картина

http://joxi.ru/E2pgadZh9RNBNm

Ну страницы повылетали после редиректа это понятно, устаканется со временем. А зачем сайтмап с помощью ксену делать? Для битрикса других решений нет?

Link to post
Share on other sites
23 минуты назад, petroff сказал:

Ну страницы повылетали после редиректа это понятно, устаканется со временем. А зачем сайтмап с помощью ксену делать? Для битрикса других решений нет?

Битрикс автоматом формирует sitemap, сам разбивает на sitemap_iblock и в общем то всё круто, но...

При экспериментировании (с гуглом), я формировал через ксену отдельный сайтмап и он в Яндексе индексировался бодрее… на порядок бодрее.

По этому, я не могу понять почему сейчас с новыми ссылками этот фокус не прокатывает.

Link to post
Share on other sites
1 час назад, ps70e сказал:

По этому, я не могу понять почему сейчас с новыми ссылками этот фокус не прокатывает.

Проверяйте карту сайта в валидаторе

https://webmaster.yandex.ru/tools/sitemap/

Xenu, ну х.з., вероятно эта программа соберет в файл вообще все ссылки с сайта. Надо ли оно? 

1 час назад, ps70e сказал:

А сколько времени нужно?

Несколько месяцев или "как повезет"

Link to post
Share on other sites

А Вы зачем в sitemap засунули весь свой мусор? 

Например: sitemap_files.xml есть вот такие ссылки info/more/buttons/ или info/more/elements/ Они для Вас так сильно важны?

Например: sitemap_iblock_2.xml все ссылки отдают код 404

Почему не один sitemap ?, это же удобней. У Вас не так много страниц. Хотя это не принципиально важно. 

 

Link to post
Share on other sites
11 час назад, ps70e сказал:

Все правильно, в карте сайта lep-snab.ru/sitemap.xml около 30 файлов со ссылками на страницы сайта. Вероятно, что так было и раньше. Тут вроде как все нормально. В карте сайта lep-snab.ru/12012018.xml, как и предполагалось, собраны ссылки со всего сайта. Там могут быть страницы не закрытые от индексации тегами или роботсом. Вот например одна из таких страниц lep-snab.ru/company/?. Это дубль страницы lep-snab.ru/company/ и таких страниц может быть много. Дубли не только негативно сказываются на позициях сайта, но и увеличивают время переиндексации при смене протокола. Поэтому Ваши эксперименты с xenu не очень хорошая идея. Если дублирующих страниц много, то Яндекс и год может сайт с новым протоколом переиндексировать. Если есть время, то в принципе ничего страшного

Link to post
Share on other sites
22 часа назад, petroff сказал:

Все правильно, в карте сайта lep-snab.ru/sitemap.xml около 30 файлов со ссылками на страницы сайта. Вероятно, что так было и раньше. Тут вроде как все нормально. В карте сайта lep-snab.ru/12012018.xml, как и предполагалось, собраны ссылки со всего сайта. Там могут быть страницы не закрытые от индексации тегами или роботсом. Вот например одна из таких страниц lep-snab.ru/company/?. Это дубль страницы lep-snab.ru/company/ и таких страниц может быть много. Дубли не только негативно сказываются на позициях сайта, но и увеличивают время переиндексации при смене протокола. Поэтому Ваши эксперименты с xenu не очень хорошая идея. Если дублирующих страниц много, то Яндекс и год может сайт с новым протоколом переиндексировать. Если есть время, то в принципе ничего страшного

Т.е. я так понимаю с новым протоколом, старые фокусы только во вред.

Спасибо!

Link to post
Share on other sites
1 час назад, ps70e сказал:

Т.е. я так понимаю с новым протоколом, старые фокусы только во вред.

Спасибо!

Собрать все ссылки с сайта и скормить их ботам это вообще не фокус. В зависимости от настройки robots.txt и движка, всё это может вылиться как в - так и в +. Я не смотрел полностью какие у Вас там ссылки в файле, но на первом экране сразу увидел ссылку, которая поисковикам не нужна

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...