Kpres

Новичок
  • Content count

    4
  • Joined

  • Last visited

About Kpres

  • Rank
    Новичок

Profile Information

  • Специализация
    SEO
  1. Спасибо большое
  2. Это не курсы,дали 110+ вопросов и 400+ листов теории на 2 дня,с сео не имел никакого отношения ,это одни из последних вопросов,голова уже не варит,я ответил,хочу убедиься в достоверности своих ответов.
  3. №1.один вар-т ответаВ Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубльhttp://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубльКак решить проблему дублей?1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр№2 один вар-т ответаВ Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубльhttp://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубльКак решить проблему дублей?1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*2. Добавить в robots.txt строку: Disallow: /?utm_sourse*3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>4. Ничего не делать, такие страницы со временем сами выпадут из индекса№3 несколько вар-товНайдите ошибки в файле robots.txt:User-agent: *Disallow: /yupe/backend*Disallow: /*/default*Disallow: /en/Disallow: /*?_utl_tDisallow: /*loginDisallow: /registrationDisallow: /*?ajax=Disallow: /*?service=Disallow: *default*Allow: /en/*Host: https://site.ruSitemap: https://site.ru/sitemap.xmlCrawl-Delay: 51. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс2. Директива Allow не используется в файле robots - она является устаревшей3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google№4 несколько вар-товПри анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?1. Прописать на карточках в коде: <meta name="robots" content="noindex" /> 2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.4. Оправить страницы на индексацию через Яндекс.ВебмастерСпасибо заранее