Jump to content

Как я расстался с дублями страниц


Recommended Posts

На текущий момент веду блог. В индексе 1500+ страниц. Реальных - около двухсот. Начал бороться с дублями недавно. Сменил свои прошлые скрипты в htaccess и robots (так как за пару месяцев результата ноль), на те, что указал автор. Посмотрим на динамику. Сейчас 100-150 посетителей в сутки. Из них 90% трафик ПС. Если кому интересно, могу делиться статистикой.

Link to post
Share on other sites
  • 1 month later...
  • Replies 129
  • Created
  • Last Reply

Top Posters In This Topic

Top Posters In This Topic

Popular Posts

Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс. Ну все по порядку, в начале я в файле robots.txt открыл, сейча

Для поиска дублей я использую программу Netpeak Spider. Очень помогает

Поскольку тут описанны стандартные дубли и принцип закрытия похож для любой смс, добавлю от себя что часто встречаю на магазинах . Вебмастера зачастую забывают крыть дубли в магазинах при их разработ

Если у меня такая проблема то что делать?

Например давайте возьмем эту страницу : http://grandmods.ru/file/page/2/это вторая страница файлового раздела на сайте. 
Но она почему то дублируется (Да и не только она, такого много на сайте с каждым разделом) например вот, дубль этой самой страницы: http://grandmods.ru/file/file/file/file/file/file/file/page/2/ 
Просто добавляешь в строку /file и открывается та же самая страница, почему не пойму, сайт по идее должен выдавать ошибку, что такой страницы не существует.
Link to post
Share on other sites

 

 

После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:

 

Для wp можно использовать плагин ARK HideCommentLinks (установил - активировал) настройка не требуется. 

 

 

Плагин закрывает ссылки на сайты комментаторов, оставляя возможность перехода на эти сайты.

Кроме того, плагин убирает replytocom из ссылки ответа на комментарий.

Link to post
Share on other sites

 

Если у меня такая проблема то что делать?

Например давайте возьмем эту страницу : http://grandmods.ru/file/page/2/это вторая страница файлового раздела на сайте. 
Но она почему то дублируется (Да и не только она, такого много на сайте с каждым разделом) например вот, дубль этой самой страницы: http://grandmods.ru/file/file/file/file/file/file/file/page/2/ 
Просто добавляешь в строку /file и открывается та же самая страница, почему не пойму, сайт по идее должен выдавать ошибку, что такой страницы не существует.

 

Все проблему решил :)

Link to post
Share on other sites
  • 4 weeks later...
  • 1 month later...

После изменения robots.txt и удаления ненужных страниц, Яндекс понизил абсолютно все позиции на сайте. То есть 97.5% позиций улетели куда-то подальше. Как быть?

cUMxPTrX_OE.jpgs9xMTwfcKn0.jpgpZvPKkscmlA.jpg

Link to post
Share on other sites
  • 2 months later...
  • 3 weeks later...
  • 3 weeks later...

Ребята,добрый день!Я новичок в сео.Подскажите как убрать дубли Титл ,страниц.Сайт уже был создан не мною,найти того кто создавал не возможно.Есть какая нибудь инструкция?Помогите.

Link to post
Share on other sites
1 час назад, Benny13 сказал:

Ребята,добрый день!Я новичок в сео.Подскажите как убрать дубли Титл ,страниц.Сайт уже был создан не мною,найти того кто создавал не возможно.Есть какая нибудь инструкция?Помогите.

дайте название движка и адрес сайта в личку

Link to post
Share on other sites
4 минуты назад, seoinfodom сказал:

дайте название движка и адрес сайта в личку

 

Только что, Benny13 сказал:

Webasyst        6404332.ru

 

Link to post
Share on other sites
  • 2 weeks later...
Цитата

После изменения robots.txt и удаления ненужных страниц, Яндекс понизил абсолютно все позиции на сайте.

Может Вы вместе с ненужными страницами удалили те, которые хорошо ранжировались и приносили трафик?

Link to post
Share on other sites
  • 7 months later...

Ура ! Яндекс реально по кабинету вебмастера загнал в ...опу Гугл, и теперь расстаться с дублями очень легко, проверить все переадресации, все страницы проще простого!

Link to post
Share on other sites
  • 5 months later...
В 20.11.2016 в 5:57 PM, 4o_kavo сказал:

Если у меня такая проблема то что делать?

Например давайте возьмем эту страницу : http://grandmods.ru/file/page/2/это вторая страница файлового раздела на сайте. 
Но она почему то дублируется (Да и не только она, такого много на сайте с каждым разделом) например вот, дубль этой самой страницы: http://grandmods.ru/file/file/file/file/file/file/file/page/2/ 
Просто добавляешь в строку /file и открывается та же самая страница, почему не пойму, сайт по идее должен выдавать ошибку, что такой страницы не существует.

Знаком с этой проблемой! Ищи в главном шаблоне сайта строку с признаком flie и посмотри что там не так. Вполне возможно ссылка не прописана корректно!
 

Link to post
Share on other sites

История о том как я избавляюсь от дублей:
Прогон Netpeak Spider и пошел: 
- корректирую Title Description (формирую файл на внедрение)
- смотрю веб мастер Яндекс делаю выгрузку "статистика обхода" собираю ссылки от туда (дальше главное определить с какого раздела дубль)
и ТЗ на удаление дублей 
После удаления в robots.txt добавляю (так на всякий случай) и все 

Link to post
Share on other sites
  • 3 months later...

Добрый день! Подскажите пожалуйста в чем ошибка, настраиваю редирект в файле .htaccess с www на без www, но все равно приходит код ответа сервера 200:

Пробывал вот такой код:

[HIDE] 
Options +FollowSymLinks 
RewriteEngine On 
RewriteCond %{HTTP_HOST} !^mysait\.ru [NC] 
RewriteRule (.*) http://mysait.ru/$1 [R=301,L] 

RewriteCond %{REQUEST_URI} /index.php 
RewriteCond %{QUERY_STRING} ^\z 
RewriteRule ^(.*)$ http://mysait.ru/? [R=301,L][/HIDE] 

в файле rorbots.txt Host тоже прописан

а также убираю открытие сайта по адресу musite.ru/index.php тоже приходит код 200.

Сейчас вот такой код:

RewriteEngine on
RewriteCond %{HTTP_HOST} ^(www\.mysait\.ru)(:80)? [NC]
RewriteRule ^(.*) http://mysait.ru/$1 [R=301,L]
order deny,allow

RewriteCond %{REQUEST_URI} /index.php
RewriteCond %{QUERY_STRING} ^\z
RewriteRule ^(.*)$ http://mysait.ru/? [R=301,L]

И все равно код ответ сервера 200.

 

 

Link to post
Share on other sites
Цитата
После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:
 
0_1199a1_d641c269_orig.jpg

Скрыны битые.

Какими параметрами именно? 

Спасибо. 

Link to post
Share on other sites
  • 8 months later...
В 25.10.2014 в 5:10 PM, serjin сказал:

Поскольку тут описанны стандартные дубли и принцип закрытия похож для любой смс, добавлю от себя что часто встречаю на магазинах .

Вебмастера зачастую забывают крыть дубли в магазинах при их разработке .

Например в магазине стоит сортировка по цене, дате, названию и т.п общее количество товаров 100 то-етсь 100 стр.(нужных) при сортировке генерятся страницы в соответствии с выбранными фильтрами дубли, и их количество может быть просто колосальным исчислятся тысячами и десятками тыс. в зависимости от количества самих товаров так и пунктов сортировки .

Тоже касается каталогов и прочих сайтов где встречается сортировка

Проверяем свои сайты ,кроем дубли. Трафик растет запросы крепнут проверено опытом!

помогите разобраться с этими дублями, никак не пойму как их найти? умнаямебель33.рф

Link to post
Share on other sites
В 08.12.2014 в 6:47 AM, Kufi сказал:

Ребята, привет. В июле я поставил эксперимент по дублям страниц и сегодня хочу показать результат.

 

0_121538_75c67246_orig.jpg

 

Все это время я следил за динамикой изменения количества страниц. Считаю, что результат есть и и этот вариант избавления от дублей себя оправдывает полностью.

помогите разобраться с этими дублями, умнаямебель33.рф

Link to post
Share on other sites
  • 1 month later...

Добрый день!

Помогите пожалуйста правильно избавиться от дублей. Движок у меня самописный и путь к картинкам выглядит сл.образом name.ru/foto.php?folder=papka1&post=15&foto=5 

Но почему то яндекс решил проиндексировать и ссылки вида name.ru/foto.php?folder=papka1&foto=5&post=15 (т.е. местами поменял порядок GET запроса) В итоге у меня образовалось порядка 20 000 дублей. 

Ломаю голову как мне избавиться от дублей. Помогите пожалуйста советом, как правильно сделать редирект 301.

Link to post
Share on other sites

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
  • Recently Browsing   0 members

    No registered users viewing this page.


×
×
  • Create New...