Jump to content

Recommended Posts

Доброго времени суток. У меня такая проблема. Сайт был по некоторым запросам в Гугл на первом месте.
Но каким то образом  файле robots.txt поменялся на запрет сканирования страниц. В итоге сайт вылетел с поисковика полностью.
robots.txt исправили три дня назад. Но страницы почему то не индексируются. Вопрос такой: Как скоро Гугл может проиндексировать по новой эти страницы, и в течении какого времени они вернутся в поиск? И вообще как это могло выйти с изменением robots.txt. Взлом или что?
Спасибо

Link to post
Share on other sites

Недели 2 назад сам нахимичил в подобном плане. По статьям Алаева делал "Правильный robots". Получилось так, что я закрыл от индексации все статьи в файле engine (dle движок) только спустя 2 апдейта Яндекса, вернулись все странички в индекс. Но гугл как-то быстро отреагировал на изменение файла robots, слишком долго ждать не пришлось.

На счёт robots.txt может и сам что-нибудь начудил? Если же нет, то спрашивай у хостеров логи входа в аккаунт и пускай уже разбираются и кроют дыры...

Link to post
Share on other sites

Сам я даже не знаю где он находится этот робот. Я заказывал сайт. И исправление тоже заказывал. Спасибо за ответ

Link to post
Share on other sites

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...