Kufi

Как я расстался с дублями страниц

126 posts in this topic

ребятки удаление дубликатов страниц это одно из важных факторов в оптимизации вопрос как проверить на эти самые дубли и как их найти ?

 

1. Идете в гугл поиск

2. В поисковой строке вбиваете site:сайт.ру (и подряд вбиваете значения из последней таблицы - replytocom, feed, tag и так далее)

3. Затем нажимаете на ссылку Показать скрытые результаты

4. Смотрите число, которое выглядит примерно Результатов: 45 789 (0,45 сек)

 

Или в панеле инструментов Гугла заходите в Сканирование - Индекс сканирования и смотрите сколько у вас страниц в индексе - скорее всего это дубли!

Share this post


Link to post
Share on other sites

Еще одна ошибочка, строка RewriteRule (.*) $1? [R=301,L] у вас повторяется два раза. Думаю так не должно быть

Share this post


Link to post
Share on other sites

Еще одна ошибочка, строка RewriteRule (.*) $1? [R=301,L] у вас повторяется два раза. Думаю так не должно быть

 

Тут уже не подскажу. Не специалист в этой области

Share this post


Link to post
Share on other sites

 

Host: сайт.com

Sitemap: http ://сайт/sitemap.xml

Пробел один тут убрать надо еще) А то яш ругается, а вообще, ТС, огромное спасибо)

 

 
 

 

Share this post


Link to post
Share on other sites

 

 

Host: сайт.com

Sitemap: http ://сайт/sitemap.xml

Пробел один тут убрать надо еще) А то яш ругается, а вообще, ТС, огромное спасибо)

 

 
 

 

 

 

Аха..Надо, я его поставил, чтобы избежать кликабельной ссылки =) Пожалуйста

Share this post


Link to post
Share on other sites

На старом блоге было 3545 страниц :) Гугл и Яндекс исключали по 20-30 в сутки после такой операции. Новый блог сразу же оптимизировал...

Share this post


Link to post
Share on other sites

На старом блоге было 3545 страниц :) Гугл и Яндекс исключали по 20-30 в сутки после такой операции. Новый блог сразу же оптимизировал...

 

У меня Яша сразу выплюнул после первого же Апа все, что бы)))А Гугл постепенно))

Share this post


Link to post
Share on other sites

Вообщем смотрите. Ввел я в гугле запрос: "site:мой сайт.com".

Выдал он мне: " Результатов: примерно 676, страница 57 (0,30 сек.) "

На 57 странице появилась надпись "Показать скрытые результаты."

Нажал на нее.

Поиск остановился также на 57 странице со следующей надписью: "Результатов: примерно 687, страница 57 (0,36 сек.) "

 

То есть у меня 9 дублей?

Share this post


Link to post
Share on other sites

Введи site:site.ru replytocom (это для wp)

Share this post


Link to post
Share on other sites

Я имею ввиду site:твой адрес сайта.

Если ничего не найдено, значит дублей нету.

! Это только для Worpdress и только в google.

 

Ещё такие варианты запросов для дублей.

 

site:site.ru feed
site:site.ru tag
site:site.ru attachment
site:site.ru attachment_id
site:site.ru page
site:site.ru category
site:site.ru comment-page
site:site.ru trackback

Share this post


Link to post
Share on other sites

Я имею ввиду site:твой адрес сайта.

Если ничего не найдено, значит дублей нету.

! Это только для Worpdress и только в google.

 

Ещё такие варианты запросов для дублей.

 

site:site.ru feed

site:site.ru tag

site:site.ru attachment

site:site.ru attachment_id

site:site.ru page

site:site.ru category

site:site.ru comment-page

site:site.ru trackback

 

Я уж понял. Все равно ничего на найдено

Share this post


Link to post
Share on other sites

Я уж понял. Все равно ничего на найдено

Ну значит всё нормал...

Share this post


Link to post
Share on other sites

ну у меня по некоторым запросам есть, по некоторым ничего не найдено...

что подскажите, проделать ваш метод?

Share this post


Link to post
Share on other sites

ну у меня по некоторым запросам есть, по некоторым ничего не найдено...

что подскажите, проделать ваш метод?

 

У меня изначально тоже по некоторым были, по некоторым не было :) Но в итоге дубли росли. Сами решайте =)

Share this post


Link to post
Share on other sites

Поскольку тут описанны стандартные дубли и принцип закрытия похож для любой смс, добавлю от себя что часто встречаю на магазинах .

Вебмастера зачастую забывают крыть дубли в магазинах при их разработке .

Например в магазине стоит сортировка по цене, дате, названию и т.п общее количество товаров 100 то-етсь 100 стр.(нужных) при сортировке генерятся страницы в соответствии с выбранными фильтрами дубли, и их количество может быть просто колосальным исчислятся тысячами и десятками тыс. в зависимости от количества самих товаров так и пунктов сортировки .

Тоже касается каталогов и прочих сайтов где встречается сортировка

Проверяем свои сайты ,кроем дубли. Трафик растет запросы крепнут проверено опытом!

Kufi, noni71rus and AndteyLat like this

Share this post


Link to post
Share on other sites

хм... странно, у меня в wordpresse вот такой роботс:

User-agent: *
Disallow: /?
Host: site.site
Sitemap: http://site.site/sitemap.xml

нет ни каких дублей в индексе... единственное, что с помощью йоаста запретил индексацию страниц медиафайлов, тегов и ещё чего то... 

Share this post


Link to post
Share on other sites

 

Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс. Ну все по порядку, в начале я в файле robots.txt открыл, сейчас мой роботс выглядит так:

 

User-agent: *

Disallow: /wp-includes

Disallow: /feed

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Host: сайт.com

Sitemap: http ://сайт/sitemap.xml

 

User-agent: Googlebot-Image

Allow: /wp-content/uploads/

 

User-agent: YandexImages

Allow: /wp-content/uploads/

 

После чего открыл файл .htaccess и добавил в него следующее :

 

# BEGIN WordPress

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule ^index\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
 
# END WordPress
 
После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:
 
0_1199a1_d641c269_orig.jpg
 
Все! Итого:
 
Дубли в Яндексе, он их выплюнул практически сразу:
 
0_1199a0_a383660b_orig.jpg
Дубли в Гугле, тут очень долго, но медленно и верно их выкидывает из основного индекса:
 
0_119286_8087702_orig.jpg
 
P.S.
 
Ребята, на многие вопросы я ответить не смогу, я всего лишь фотоблогер, но подумал, что эта инфа может быть кому-нибудь полезна. Я рассказал, что сделал и что получил в результате. А как вы с этим боритесь я не знаю, но точно перекрытые сопли в роботсе ПС игнорируют и забирают себе в индекс!
 
Трафик из обоих ПС начал значительно подниматься!
 
UPDATE
 
Совсем забыл добавить! После этих манипуляций, я завел себе файлик с Экселя и каждый понедельник следил за динамикой! Еще скрин:
 
0_1199b3_d6fbd185_orig.jpg

 

рекомендую  на ВП аналогично сделали недели 3 назад по первому посту. эффект присутствует.

Tru and Kufi like this

Share this post


Link to post
Share on other sites

Ребята, привет. В июле я поставил эксперимент по дублям страниц и сегодня хочу показать результат.

 

0_121538_75c67246_orig.jpg

 

Все это время я следил за динамикой изменения количества страниц. Считаю, что результат есть и и этот вариант избавления от дублей себя оправдывает полностью.

Makedo likes this

Share this post


Link to post
Share on other sites

@Kufi, спасибо огромное! сделаю и себе такое. Плюс ко всему у меня WP, да и еще фотоблог)))

Kufi likes this

Share this post


Link to post
Share on other sites

@Kufi, спасибо огромное! сделаю и себе такое. Плюс ко всему у меня WP, да и еще фотоблог)))

 

Круто! А можно ссыль на фотоблог в личку?

Share this post


Link to post
Share on other sites

Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс.

Ну все по порядку...

 
P.S.
 
Ребята, на многие вопросы я ответить не смогу, я всего лишь фотоблогер, но подумал, что эта инфа может быть кому-нибудь полезна. Я рассказал, что сделал и что получил в результате. А как вы с этим боритесь я не знаю, но точно перекрытые сопли в роботсе ПС игнорируют и забирают себе в индекс!
 
Трафик из обоих ПС начал значительно подниматься!

 

Да уж инфа полезная, НО это Методика от Александра Борисова - Из его третьего курса, да и на Блоге у него имеется тематическая статья.

А вы даже ссылку на источник не сделали ...  :P

 

Подскажите пожалуйста, как определить дубли на сайте? есть точная методика?

 

Справедливости ради и из уважения к автору - Ссылка на авторскую Методику:

Дубли страниц replytocom wordpress или как умерли и умирают тысячи блогов даже не зная об этом!

(isif-life.ru/blogovedenie/dubli-stranic-replytocom-wordpress-ili-kak-umerli-i-umirayut-tysyachi-blogov-dazhe-ne-podozrevaya-ob-etom.html)  ;)

Share this post


Link to post
Share on other sites

Да уж инфа полезная, НО это Методика от Александра Борисова - Из его третьего курса, да и на Блоге у него имеется тематическая статья.

А вы даже ссылку на источник не сделали ...  :P

 

А тут дело не в методике Александра Борисова...А в том, что это мой личный эксперимент! И не важно где я и о чем узнал! Если бы материал полностью был бы взят из его статьи, я бы поставил ссылку на его статью! :P

Tru likes this

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!


Register a new account

Sign in

Already have an account? Sign in here.


Sign In Now

  • Recently Browsing   0 members

    No registered users viewing this page.