ToneR 249 Posted November 7, 2016 Report Share Posted November 7, 2016 robots-txt обязателен для сайта? В случае если он отсутствует, то яндекс по умолчанию будет индексировать весь сайт, включая мусорные страницы. Link to post Share on other sites
KORUP 1 Posted November 7, 2016 Report Share Posted November 7, 2016 В случае если он отсутствует, то яндекс по умолчанию будет индексировать весь сайт, включая мусорные страницы. А sitemap? Link to post Share on other sites
vektor48 0 Posted December 1, 2016 Report Share Posted December 1, 2016 Роботс для каждого сайта составляется свой. Лучше проверить мусорные ссылки, которые попали в индекс различными чекерами типа netpeak или screaming frog или в вебмастерах поисковиков смотреть. А то может получится что на 1 контент будет ссылаться 3 разных ссылки. Link to post Share on other sites
AlexK 126 Posted December 1, 2016 Report Share Posted December 1, 2016 User-agent: * Disallow: Sitemap: http://ваш сайт/sitemap.xml User-agent: Yandex Disallow: Host: ваш сайт.com Sitemap: http://ваш сайт/sitemap.xml Link to post Share on other sites
wlasta 19 Posted December 24, 2016 Report Share Posted December 24, 2016 А sitemap? Вообще то взяла себе за правило новый сайт добавлять в панель вебмастера яндекса, гугла и майла. Обязательно указываю и sitemap и robots, так поисковики быстрее индексируют сайт и показывают какие ошибки нужно исправить. ToneR 1 Link to post Share on other sites
AlexK 126 Posted December 24, 2016 Report Share Posted December 24, 2016 Вообще то взяла себе за правило новый сайт добавлять в панель вебмастера яндекса, гугла и майла. Обязательно указываю и sitemap и robots, так поисковики быстрее индексируют сайт и показывают какие ошибки нужно исправить. Солидарен. Сайты в обязательном порядке добавил в: Webmaster Yandex Webmaster Google Webmaster Mail Webmaster Bing Link to post Share on other sites
Дмитринск 0 Posted January 20, 2017 Report Share Posted January 20, 2017 Решение всех проблем http://gameer.name/blog/20 Link to post Share on other sites
marikona 0 Posted February 16, 2017 Report Share Posted February 16, 2017 Очень нужен совет: Оплатила работу по созданию robots.txt специалисту, который должен был его перепроверить и изменить при необходимости. Но у меня возникли сомнения в его компетентности. Сайт на Джумла. форум Kunena, sh404sef. Всегда считала, что форма ответов на форуме, капча, поиск и подобные страницы должны быть закрыты. Disallow: /*search* Disallow: /ulogin Disallow: /acepolls Disallow: /*captcha* Disallow: /*reply* Disallow: /*limitstart=0 Disallow: /*?_=* Он выслал мне robots.txt без запрета этих страниц и пояснил, что лучше не закрывать от робота все эти страницы, так как поисковики не любят, когда от них закрывают контент. Никаких станиц, которые генерирует Kunena, sh404sef закрыты не были. Прав ли он? Или если я заменю этот файл, то сделаю хуже? Для полной ясности картины могу приложить файл, который есть сейчас и который выслал специалист. Link to post Share on other sites
Recommended Posts
Please sign in to comment
You will be able to leave a comment after signing in
Sign In Now