Sunx

Members
  • Content count

    8
  • Joined

  • Last visited

Posts posted by Sunx


  1. Ребят подскажите пожалуйста стоит ли закрывать в роботсе такие страницы как: материалы за "Месяц" (пример site.ru/2015/11 ) и Последние публикации на сайте ( пример: site.ru/lastnews/page/2/ )

     

    Стоит ли их запрещать индексировать ПС.

    Page и архивы лучше закрывать, это откровенные дубли.

     

    А вот что делать с xfsearch (да и tags тоже)? К каждой новости у меня прописаны доп. поля вида "студия" и "модель".  Хочу открыть и получать дополнительный трафик с этих страниц, но не уверен на счет реакции ПС. Считаю, что кроме удобства для пользователей на самом сайте, данные страницы могут принести желаемый результат пользователю в выдаче ПС.

    Небольшой пример: чел. ищет "эротическая модель в латексе", попадает на данную страницу, радуется полученному результату. На этой же странице прописано доп. поле с именем модели - Cassy Lane. Другой чел. ищет "Cassy Lane", попадает на страницу "эротическая модель в латексе", и тоже радуется результату, потому как нашел нужную ему модельку. Все довольны, все счастливы. Да, в /xfsearch/Cassy Lane/ будут несколько не уникальные мета-теги, а именно keywords и description, единственное уникальное - title, но разве это причина пессимизировать страницу, а то и вовсе весь сайт, тем самым, грубо говоря, расстраивать юзера? Это противоречит самой логике ПС :)  

    А что вы думаете по этому поводу?


  2. Здравствуйте.
    Думаю, не для кого не секрет, что ПС довольно тщательно анализируют каждую внешнею ссылку ведущую на сайт. Она может как способствовать продвижению, так и оказать негативное влияние, в частности, если множество сайтов будут ссылаться используя один и тот же анкор. 
    Так вот вопрос: стоит ли делать внутреннюю перелинковку используя один и тот же анкор? Или все же лучше разбавлять аналогично внешней? Есть 15 категорий, с них хочу передать вес на главною по главному ключу.