Jump to content

Recommended Posts

Есть вопрос? Задай его профессиональным веб-мастерам, SEO и другим специалистам!

  • VIP

Я без претензий, просто личный опыт. у меня на одном сайте специально структура сделана так, что при попадании в нужный раздел пользователь видит нужные ему материалы.

 

Суть в том, что 1 статья у меня публикуется в 3 - 6 разделах. Все открыты в роботс. сайт чувствует себя хорошо, Яндекс не против. 

 

ЗЫ если современный поисковик не умеет определять дубли на одном сайте как один и тот же контент - грош ему цена. Про Яндекс казать ничего не могу - без претензий с его стороны. 

 

Мой вывод, вся суета вокруг дублей - не более чем суета. проверено на практике в течение 3 лет. . 

Link to post
Share on other sites

Так а позиции у дублей есть они индексируются вообще?

 

Дубли рано или поздно скажутся на трафе, однозначно! Я убрал, траф значительно пошел вверх. Эксперимент длился примерно 2 месяца, за это время траф поднялся в 2 раза, сейчас уже еще больше

 

Но есть случае, где миллион дублей и сайт отлично себя чувствует в обоих ПС)

Link to post
Share on other sites

Я без претензий, просто личный опыт. у меня на одном сайте специально структура сделана так, что при попадании в нужный раздел пользователь видит нужные ему материалы.

 

Суть в том, что 1 статья у меня публикуется в 3 - 6 разделах. Все открыты в роботс. сайт чувствует себя хорошо, Яндекс не против. 

 

ЗЫ если современный поисковик не умеет определять дубли на одном сайте как один и тот же контент - грош ему цена. Про Яндекс казать ничего не могу - без претензий с его стороны. 

 

Мой вывод, вся суета вокруг дублей - не более чем суета. проверено на практике в течение 3 лет. . 

От части согласен, эта самая суета, если еще и не в теме, может плохо закончиться... сейчас много модулей плагинов, которые вроде как дубли убирают, однако не встретил не одного нормально функционирующего... появился в арсенале тег "каноникал", тут все более менее ясно и логично... предположим у вас визитка, и лишние дубли закрыть в роботсе не составит труда, а если партал на несколько тысяч страниц?! Это человека надо сажать отдельно что бы он дублями занимался.. не лучше ли этого человека направить на что  то полезное... современные cms все , практически, имеют модульную систему которая ну по любому будет делать дубли. Если сайт имеет границы, то есть сделал 1к страниц, например, и вроде как все, более не будет их, то можно от нечего делать найти себе занятие в плане закрытия в роботсяе дублей, но когда в день по десятку статей.... то это мазахизм чистой воды... 

Link to post
Share on other sites

Дубли на одном сайте могут быть. Писковик относится к этому нормально.

Но вот дублированные сайты, например, с общей БД и новостями - это плохо. Такие сайты падают в выдаче

Link to post
Share on other sites

Дубли на одном сайте могут быть. Писковик относится к этому нормально.

Но вот дублированные сайты, например, с общей БД и новостями - это плохо. Такие сайты падают в выдаче

Меня интересует что будет если убрать дубли страниц уже с раскрученного сайта 

Link to post
Share on other sites
  • VIP

А если к примеру у меня сайт раскрученный и я через robots уберу дубли, какие могут быть реакции? 

 

Уберете балласт (дубли) - сайт улетит в космос.  

 

А что там в космосе - даже Гагарин не знает....  ;)

Link to post
Share on other sites

Я так понимаю если я уберу дубли страниц то у меня они вылетят из поиска, если дубли имеют позиции в пс тогда сайт просядет. Меня интересует конкретно имеют ли позиции дубли да бы понят может дубли просто вовсе не стоит удалять так как траф может очень сильно просесть. 

Link to post
Share on other sites
  • VIP

Я так понимаю если я уберу дубли страниц то у меня они вылетят из поиска, если дубли имеют позиции в пс тогда сайт просядет. Меня интересует конкретно имеют ли позиции дубли да бы понят может дубли просто вовсе не стоит удалять так как траф может очень сильно просесть. 

 

Брат, у вас 2 пути:

 

1) Как я - плодить дубли на одном сайте вопреки расхожему мнению и черпать траф половником.

2) Попробовать убрать дубли и посмотреть, что из этого получится. 

 

Ибо ответить на ваш вопрос может только Платон, который сам не в курсе, как работает алгоритм. 

 

От себя добавлю: один хороший чел с Запада как то мне сказал: не трогай то, что и так работает

 

А там как хотите. 

Link to post
Share on other sites

Суть в том, что 1 статья у меня публикуется в 3 - 6 разделах. Все открыты в роботс. сайт чувствует себя хорошо, Яндекс не против. 

 Вывод статьи в разных разделах, это вобщем-то не дубли. Сама статья у Вас наверняка находится только по одному адресу?

 К примеру в ДЛЕ при создании статьи, ее можно приписать к нескольким разделам, и попасть на нее тогда можно с нескольких разных разделов. Но адрес самой статьи при этом остаеться одним - sait.ru/dubli.html

 

Или при заходе с разных разделов адрес одной и той же статьи становиться разный? К примеру sait.ru/razdel/dubli.html и sait.ru/razdel2/dubli.html

 

 Мне все же кажется что ни к чему это, что бы одна и так же страница была доступна по немного разным адресам. Но это нужно учитывать при старте сайта. А так да, если сайт уже усиленно индексируется и идет трафик с ПС, то удаление дублей может привести к падению трафика.

 

 Если решили удалять дубли с сайта имеющего позиции и трафик с ПС, то нужно тогда проанализировать, какая именно страница висит в топе, на какую страницу идет трафик, и исходя из этого уже удалять дубли, не несущие никакой пользы.

Link to post
Share on other sites

 Вывод статьи в разных разделах, это вобщем-то не дубли. Сама статья у Вас наверняка находится только по одному адресу?

 К примеру в ДЛЕ при создании статьи, ее можно приписать к нескольким разделам, и попасть на нее тогда можно с нескольких разных разделов. Но адрес самой статьи при этом остаеться одним - sait.ru/dubli.html

 

Или при заходе с разных разделов адрес одной и той же статьи становиться разный? К примеру sait.ru/razdel/dubli.html и sait.ru/razdel2/dubli.html

 

 Мне все же кажется что ни к чему это, что бы одна и так же страница была доступна по немного разным адресам. Но это нужно учитывать при старте сайта. А так да, если сайт уже усиленно индексируется и идет трафик с ПС, то удаление дублей может привести к падению трафика.

 

 Если решили удалять дубли с сайта имеющего позиции и трафик с ПС, то нужно тогда проанализировать, какая именно страница висит в топе, на какую страницу идет трафик, и исходя из этого уже удалять дубли, не несущие никакой пользы.

Исходя их выше написанного я так понимаю что все таки дули ПС индексирует и дает им позиции? 

Link to post
Share on other sites

Вот пример что отображается в Гугл Вебмастер в разделе Вид в поиске - Оптимизация HTML  

http://clip2net.com/s/3aAYy87

 

Повторяющееся метаописание     тут --- 3 116 страниц

http://clip2net.com/s/3aAYPY4   

 

Повторяющиеся заголовки (теги title)   тут --- 3 121 страниц 

http://clip2net.com/s/3aAZoAb

 

Удалить их как бы нужно но боюсь падение трафа 

Link to post
Share on other sites

Мы можем вам помочь только в тм случае, если вы предоставите информацию о страницах. Проверьте их на индексацию. Если они не в индексе, то спокойно удаляйте, а если в индексе, то оставьте все как есть

Link to post
Share on other sites

Мы можем вам помочь только в тм случае, если вы предоставите информацию о страницах. Проверьте их на индексацию. Если они не в индексе, то спокойно удаляйте, а если в индексе, то оставьте все как есть

Как я могу предоставить такую возможность? 

или как мне самому проверить ?

Link to post
Share on other sites

Исходя их выше написанного я так понимаю что все таки дули ПС индексирует и дает им позиции? 

 ПС в принципе могут проиндексировать все что угодно. Вопрос лишь в том, как долго это "что угодно" продержиться на позициях.

 

 Да и зачем создавать внутрисайтовую конкуренцию, когда страницы вашего сайта будут биться друг с другом за выход на позиции. И только по тому, что имеют одинаковый контент или одинаковые титлы. Это ж какое-то безрассудство. )

Link to post
Share on other sites

Вот пример что отображается в Гугл Вебмастер в разделе Вид в поиске - Оптимизация HTML  

http://clip2net.com/s/3aAYy87

 

Повторяющееся метаописание     тут --- 3 116 страниц

http://clip2net.com/s/3aAYPY4   

 

Повторяющиеся заголовки (теги title)   тут --- 3 121 страниц 

http://clip2net.com/s/3aAZoAb

 

Удалить их как бы нужно но боюсь падение трафа 

 Так у Вас получается полный дубляж страниц, вместе с контентом, или дубляж заключается только мататегах, а содержимый контент разный? На мой взгляд, это две немного разные проблемы. )

Link to post
Share on other sites

Вот пример ссылок по Повторяющееся метаописание

http:// porno-bomba.com/porno-v-hd/1126-rayskoe-naslazhdenie.html

http:// porno-bomba.com/index.php?newsid=1126

 

И вот пример по Повторяющиеся заголовки (теги title)

http:// porno-bomba.com/porno-v-hd/618-razvela-na-seks.html

http:// porno-bomba.com/index.php?newsid=618

 

То есть одна новость только по разным ссылкам 

Link to post
Share on other sites

у меня 8000 новостей а таких страниц с их дублем в Повторяющееся метаописание     тут --- 3 116 страниц а в Повторяющиеся заголовки (теги title)   тут --- 3 121 страниц 

ЯЯ просто не знаю что делать!!!!

Link to post
Share on other sites

 ПС в принципе могут проиндексировать все что угодно. Вопрос лишь в том, как долго это "что угодно" продержиться на позициях.

 

 Да и зачем создавать внутрисайтовую конкуренцию, когда страницы вашего сайта будут биться друг с другом за выход на позиции. И только по тому, что имеют одинаковый контент или одинаковые титлы. Это ж какое-то безрассудство. )

Да никто не с кем биться не будет, релевантную страницу определит пс а дубль выплюнет...... Вы когда нибудь видели в поиске на одной странице в выдачи две дублированных страницы с одного сайта????? кто с кем бьется???? Гугл иногда вдает несколько страниц в выдачи одного сайта, но разные...

Link to post
Share on other sites

У меня сайт на самописном движке. Так вот, после того, как избавился от всех дублей, трафик за месяц поднялся на 50%. При этом что произошло в вебмастере:
1) Кол-во страниц в поиске уменьшилось прибл. на 10%
2) Кол-во страниц, исключенных роботом, увеличилось (было 10 стр - стало 120 стр)
3) Кол-во страниц, загруженных роботом, практически не изменилось (6.6k)
PS: цифры пишу по памяти, т.к. прошло больше 3-х месяцев и вебмастер уже не показывает старые данные, но трафик поднялся таки на 50%

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...