Kpres

Помощь с дублями

7 posts in this topic

№1.один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубль
http://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубль
Как решить проблему дублей?
1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт
2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt
3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр
4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр
№2 один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубль
http://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубль
Как решить проблему дублей?
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>
4. Ничего не делать, такие страницы со временем сами выпадут из индекса
№3 несколько вар-тов
Найдите ошибки в файле robots.txt:
User-agent: *
Disallow: /yupe/backend*
Disallow: /*/default*
Disallow: /en/
Disallow: /*?_utl_t
Disallow: /*login
Disallow: /registration
Disallow: /*?ajax=
Disallow: /*?service=
Disallow: *default*
Allow: /en/*
Host: https://site.ru
Sitemap: https://site.ru/sitemap.xml
Crawl-Delay: 5
1. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс
2. Директива Allow не используется в файле robots - она является устаревшей
3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла
4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/
5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml
6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google

№4 несколько вар-тов
При анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?
1. Прописать на карточках в коде: <meta name="robots" content="noindex" /> 
2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках
3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.
4. Оправить страницы на индексацию через Яндекс.Вебмастер



Спасибо заранее

 

Share this post


Link to post
Share on other sites

Давай-ка сам домашку делай. Что у вас там за говно-сео-курсы такие, где обучающиеся элементарного не усваивают?
Учись давай, специалист в SEO...

Share this post


Link to post
Share on other sites

Это не курсы,дали 110+ вопросов и 400+ листов теории на 2 дня,с сео не имел никакого отношения ,это одни из последних вопросов,голова уже не варит,я ответил,хочу убедиься в достоверности своих ответов.

Share this post


Link to post
Share on other sites
10 минут назад, serjin сказал:

Читайте, есть по теме много ответов Вам возможно поможет.

Спасибо

Share this post


Link to post
Share on other sites
33 минуты назад, Kpres сказал:

Это не курсы,дали 110+ вопросов и 400+ листов теории на 2 дня,

Понял)

№1.
4. 301 редирект верхнего регистра в нижний.

№2.
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
Оба варианта подходят, но со своими нюансами. Если опираться исключительно на предоставленный пример, то подходит второй вариант ответа (и первый тоже). Если опираться на логику и рациональность, то первый, так как это урлы с гет-параметром, они не обязательно могут быть после слеша сразу. первый вариант более универсальный (под любую структуру url).

№3.
Ошибки: 3,4.

№4.
Этот вопрос специфический. И зависит от ситуации, надобности, готовности потратить N-ую сумму денег, т.д.
Так как варианты 2 и 3 являются подходящими.
 

Share this post


Link to post
Share on other sites
5 минут назад, Eserador сказал:

№1.
4. 301 редирект верхнего регистра в нижний.

№2.
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
Оба варианта подходят, но со своими нюансами. Если опираться исключительно на предоставленный пример, то подходит второй вариант ответа (и первый тоже). Если опираться на логику и рациональность, то первый, так как это урлы с гет-параметром, они не обязательно могут быть после слеша сразу. первый вариант более универсальный (под любую структуру url).

№3.
Ошибки: 3,4.

№4.
Этот вопрос вообще специфический. И зависит от ситуации, надобности, готовности потратить N-ую сумму денег, т.д.
Так как варианты 2 и 3 являются подходящими.
 

Спасибо большое

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!


Register a new account

Sign in

Already have an account? Sign in here.


Sign In Now

  • Recently Browsing   0 members

    No registered users viewing this page.