Janni.Kremm

Новичок
  • Публикации

    10
  • Зарегистрирован

  • Посещение

О Janni.Kremm

  • Звание
    Пользователь

Profile Information

  • Специализация
    SEO
  • Профиль ID
    344026
  1. Ну как бы, битрикс, это админка. Как я знаю, открывать админку поисковикам не стоит..? И почему заблоченая папка битрикс выдает обычные каталожные страницы, в пути которых "/bitrix/" не участвует? И что же мне тогда, просто открыть поисковикам системную папку ( удалив ограничение из роботс ) и все типа станет гуд? Что-то мне подсказывает, что оно тогда еще больше проблем выдаст, выкинув кучу мусора в сеть..
  2. Я что-то окончательно запуталась Гугл при индексации находит заблокированные ресурсы, и блокирует вполне живые и правильные страницы. Как я поняла, все потому, что он их находит в роботс.. но там же все урлы такого типа вроде как заблочены? При чем, если проклацывать дальше этих 2 пути: Хост Связанные страницы 1 https://bitrix.info 1 682 2 https://kub.kiev.ua 1 030 то ведут они к одним и тем же страницам ( на скринах видно, что при переходе почти везде видим один и тот же результат) Скрины https://drive.google.com/open?id=1KpjkH4QugC8ee4U2Iodbf5PtJ4HejZvc На всякий случай, вот карта: User-Agent: * Disallow: */index.php Disallow: /bitrix/ Disallow: /*show_include_exec_time= Disallow: /*show_page_exec_time= Disallow: /*show_sql_stat= Disallow: /*bitrix_include_areas= Disallow: /*clear_cache= Disallow: /*clear_cache_session= Disallow: /*ADD_TO_COMPARE_LIST Disallow: /*ORDER_BY Disallow: /*PAGEN Disallow: /*?jta= Disallow: /*?print= Disallow: /*&print= Disallow: /*print_course= Disallow: /*?action= Disallow: /*&action= Disallow: /*register= Disallow: /*forgot_password= Disallow: /*change_password= Disallow: /*login= Disallow: /*logout= Disallow: /*auth= Disallow: /*backurl= Disallow: /*back_url= Disallow: /*BACKURL= Disallow: /*BACK_URL= Disallow: /*back_url_admin= Disallow: /*?utm_source= Sitemap: https://kub.kiev.ua/sitemap.xml В общем, буду рада любому совету =) П.С.: вариант, нанять СЕОшника, пока сама не разберусь с сутью проблемы ( нужно же как-то ставить задачу ), не рассматривается;)
  3. УРА!)))) Я нашла, где на сайте, просто в админке настраивается эта штука с ноуфолоу!!))) Так что, проведу следственный эксперемент: постараюсь обновить карту битриксовскую и создать просто карты генераторов, залить на Гугл, и посмотрю, что с этого получится
  4. 1. У меня закрадываются мега сомнение, что гугл по ним пойдет.. 2. Ну вот да, его то я найти и не могу.. та и сначала нужно разобраться, как правильно....
  5. товара может и нет, а всех вместе, страничек, со всяким мусором, в принципе - наберется Не укладывается у меня в голове " все хорошо" и вот такая картинка в аналитике: "родной" инструмент битрикса нашел для гугла 7498 ссылок, а основной генератор сайтмапа только 2361 шт (жаба и паук нашли примерно столько же)
  6. Я поняла вашу мысль, сама давно хочу,, чтоб мне наконец ПРАВИЛЬНО распределили вес вес страниц, НО: Вот, например, страница https://kub.kiev.ua/ru/catalog/vitriny/penal-otkrytyy-simba/. Вот скриншот по метатегу роботс https://i.imgur.com/mWp3Bgz.png. Если посмотреть версию страницы за январь 2018 года http://web.archive.org/web/20180129034716/http://kub.kiev.ua/ru/catalog/plity/, такой проблемы не было. И как раз последние пару месяцев точно, у меня сайт таки выпал из индекса ( я так понимаю, из-за новой карты), но обратно возвращаться не хочет, да и не может особо ( на индексацию гуглу отдается треть страниц, от реального их количества). И вот почему я начала с "жабки", я даже не могу создать html карту, потому что она ( так же и спайдер) находят их только если включать страницы с тегом ноуфолоу... И какой мне толк с такой карты , которую гугл, в принципе, обходить не захочет.. Или я в чем-то ошибаюсь?
  7. Я нашла все файлы index.php, в том числе и те, которые управляют хедером, но там ничего отвечающего за закрытие, каких-либо страниц - не вижу(
  8. то-есть это не связано с тем, что я даже сторонними генераторами человеческую сайтмап сгенерировать не могу? оно просто не "захватывает" эти ссылки.. и то что гугл их не воспринимает тоже (сайт не подает их на индексацию)
  9. не, битрикс.. потому и хочу понять, в каком файле лежит бяка
  10. Проверяла свой интернет магазин, сео жабкой, и она вдруг выдала совсем не все страницы. Посмотрела настройки, установила галочку на проверку страниц nofollow, и их стало существенно больше.. появились все товары... Лезу в код страницы товара ( на пример view-source:view-source:https://kub.kiev.ua/ru/catalog/pryamye/shkaf-solomiya/) и вижу там подозрительное: <meta name="robots" content="index, nofollow" /> Теперь вопрос, мне кажется, или у меня просто товары все от индексации закрыты и гугл их не видит? И если я на всем сайте поменяю там на <meta name="robots" content="index, follow" /> станет же все как надо? А если я вдруг, мыслю правильно, то ГДЕ, в каком файле это меняется? Роботс, кстати проверяла, там все норм.. Помогите, пожалуйста, а то уже на грани истерики, а помощи ниоткуда добиться не могу (от своего программиста в том числе...)