Kpres 0 Posted November 9, 2019 Report Share Posted November 9, 2019 №1.один вар-т ответаВ Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубльhttp://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубльКак решить проблему дублей?1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр№2 один вар-т ответаВ Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубльhttp://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубльКак решить проблему дублей?1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*2. Добавить в robots.txt строку: Disallow: /?utm_sourse*3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>4. Ничего не делать, такие страницы со временем сами выпадут из индекса№3 несколько вар-товНайдите ошибки в файле robots.txt:User-agent: *Disallow: /yupe/backend*Disallow: /*/default*Disallow: /en/Disallow: /*?_utl_tDisallow: /*loginDisallow: /registrationDisallow: /*?ajax=Disallow: /*?service=Disallow: *default*Allow: /en/*Host: https://site.ruSitemap: https://site.ru/sitemap.xmlCrawl-Delay: 51. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс2. Директива Allow не используется в файле robots - она является устаревшей3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google№4 несколько вар-товПри анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?1. Прописать на карточках в коде: <meta name="robots" content="noindex" /> 2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.4. Оправить страницы на индексацию через Яндекс.ВебмастерСпасибо заранее Quote Link to post Share on other sites
Eserador 358 Posted November 9, 2019 Report Share Posted November 9, 2019 Давай-ка сам домашку делай. Что у вас там за говно-сео-курсы такие, где обучающиеся элементарного не усваивают? Учись давай, специалист в SEO... Quote Link to post Share on other sites
Kpres 0 Posted November 9, 2019 Author Report Share Posted November 9, 2019 Это не курсы,дали 110+ вопросов и 400+ листов теории на 2 дня,с сео не имел никакого отношения ,это одни из последних вопросов,голова уже не варит,я ответил,хочу убедиься в достоверности своих ответов. Quote Link to post Share on other sites
VIP serjin 1052 Posted November 9, 2019 VIP Report Share Posted November 9, 2019 Читайте, есть по теме много ответов Вам возможно поможет. Quote Link to post Share on other sites
Kpres 0 Posted November 9, 2019 Author Report Share Posted November 9, 2019 10 минут назад, serjin сказал: Читайте, есть по теме много ответов Вам возможно поможет. Спасибо Quote Link to post Share on other sites
Eserador 358 Posted November 9, 2019 Report Share Posted November 9, 2019 33 минуты назад, Kpres сказал: Это не курсы,дали 110+ вопросов и 400+ листов теории на 2 дня, Понял) №1. 4. 301 редирект верхнего регистра в нижний. №2.1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*2. Добавить в robots.txt строку: Disallow: /?utm_sourse* Оба варианта подходят, но со своими нюансами. Если опираться исключительно на предоставленный пример, то подходит второй вариант ответа (и первый тоже). Если опираться на логику и рациональность, то первый, так как это урлы с гет-параметром, они не обязательно могут быть после слеша сразу. первый вариант более универсальный (под любую структуру url). №3. Ошибки: 3,4. №4. Этот вопрос специфический. И зависит от ситуации, надобности, готовности потратить N-ую сумму денег, т.д. Так как варианты 2 и 3 являются подходящими. Quote Link to post Share on other sites
Kpres 0 Posted November 9, 2019 Author Report Share Posted November 9, 2019 5 минут назад, Eserador сказал: №1. 4. 301 редирект верхнего регистра в нижний. №2.1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*2. Добавить в robots.txt строку: Disallow: /?utm_sourse* Оба варианта подходят, но со своими нюансами. Если опираться исключительно на предоставленный пример, то подходит второй вариант ответа (и первый тоже). Если опираться на логику и рациональность, то первый, так как это урлы с гет-параметром, они не обязательно могут быть после слеша сразу. первый вариант более универсальный (под любую структуру url). №3. Ошибки: 3,4. №4. Этот вопрос вообще специфический. И зависит от ситуации, надобности, готовности потратить N-ую сумму денег, т.д. Так как варианты 2 и 3 являются подходящими. Спасибо большое Quote Link to post Share on other sites
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.