Jump to content

Помощь с дублями


Recommended Posts

№1.один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубль
http://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубль
Как решить проблему дублей?
1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт
2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt
3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр
4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр
№2 один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубль
http://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубль
Как решить проблему дублей?
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>
4. Ничего не делать, такие страницы со временем сами выпадут из индекса
№3 несколько вар-тов
Найдите ошибки в файле robots.txt:
User-agent: *
Disallow: /yupe/backend*
Disallow: /*/default*
Disallow: /en/
Disallow: /*?_utl_t
Disallow: /*login
Disallow: /registration
Disallow: /*?ajax=
Disallow: /*?service=
Disallow: *default*
Allow: /en/*
Host: https://site.ru
Sitemap: https://site.ru/sitemap.xml
Crawl-Delay: 5
1. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс
2. Директива Allow не используется в файле robots - она является устаревшей
3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла
4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/
5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml
6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google

№4 несколько вар-тов
При анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?
1. Прописать на карточках в коде: <meta name="robots" content="noindex" /> 
2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках
3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.
4. Оправить страницы на индексацию через Яндекс.Вебмастер



Спасибо заранее

 

Link to post
Share on other sites

Это не курсы,дали 110+ вопросов и 400+ листов теории на 2 дня,с сео не имел никакого отношения ,это одни из последних вопросов,голова уже не варит,я ответил,хочу убедиься в достоверности своих ответов.

Link to post
Share on other sites
33 минуты назад, Kpres сказал:

Это не курсы,дали 110+ вопросов и 400+ листов теории на 2 дня,

Понял)

№1.
4. 301 редирект верхнего регистра в нижний.

№2.
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
Оба варианта подходят, но со своими нюансами. Если опираться исключительно на предоставленный пример, то подходит второй вариант ответа (и первый тоже). Если опираться на логику и рациональность, то первый, так как это урлы с гет-параметром, они не обязательно могут быть после слеша сразу. первый вариант более универсальный (под любую структуру url).

№3.
Ошибки: 3,4.

№4.
Этот вопрос специфический. И зависит от ситуации, надобности, готовности потратить N-ую сумму денег, т.д.
Так как варианты 2 и 3 являются подходящими.
 

Link to post
Share on other sites
5 минут назад, Eserador сказал:

№1.
4. 301 редирект верхнего регистра в нижний.

№2.
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
Оба варианта подходят, но со своими нюансами. Если опираться исключительно на предоставленный пример, то подходит второй вариант ответа (и первый тоже). Если опираться на логику и рациональность, то первый, так как это урлы с гет-параметром, они не обязательно могут быть после слеша сразу. первый вариант более универсальный (под любую структуру url).

№3.
Ошибки: 3,4.

№4.
Этот вопрос вообще специфический. И зависит от ситуации, надобности, готовности потратить N-ую сумму денег, т.д.
Так как варианты 2 и 3 являются подходящими.
 

Спасибо большое

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...