Kufi

Как я расстался с дублями страниц

122 сообщения в этой теме

На текущий момент веду блог. В индексе 1500+ страниц. Реальных - около двухсот. Начал бороться с дублями недавно. Сменил свои прошлые скрипты в htaccess и robots (так как за пару месяцев результата ноль), на те, что указал автор. Посмотрим на динамику. Сейчас 100-150 посетителей в сутки. Из них 90% трафик ПС. Если кому интересно, могу делиться статистикой.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

эту операцию надо выполнить один раз и всё .или всё таки через некоторое время надо повторять

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У тебя вордпрес, как на дле бороться с дублями? 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если у меня такая проблема то что делать?

Например давайте возьмем эту страницу : http://grandmods.ru/file/page/2/это вторая страница файлового раздела на сайте. 
Но она почему то дублируется (Да и не только она, такого много на сайте с каждым разделом) например вот, дубль этой самой страницы: http://grandmods.ru/file/file/file/file/file/file/file/page/2/ 
Просто добавляешь в строку /file и открывается та же самая страница, почему не пойму, сайт по идее должен выдавать ошибку, что такой страницы не существует.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 

 

После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:

 

Для wp можно использовать плагин ARK HideCommentLinks (установил - активировал) настройка не требуется. 

 

 

Плагин закрывает ссылки на сайты комментаторов, оставляя возможность перехода на эти сайты.

Кроме того, плагин убирает replytocom из ссылки ответа на комментарий.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 

Если у меня такая проблема то что делать?

Например давайте возьмем эту страницу : http://grandmods.ru/file/page/2/это вторая страница файлового раздела на сайте. 
Но она почему то дублируется (Да и не только она, такого много на сайте с каждым разделом) например вот, дубль этой самой страницы: http://grandmods.ru/file/file/file/file/file/file/file/page/2/ 
Просто добавляешь в строку /file и открывается та же самая страница, почему не пойму, сайт по идее должен выдавать ошибку, что такой страницы не существует.

 

Все проблему решил :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

После изменения robots.txt и удаления ненужных страниц, Яндекс понизил абсолютно все позиции на сайте. То есть 97.5% позиций улетели куда-то подальше. Как быть?

cUMxPTrX_OE.jpgs9xMTwfcKn0.jpgpZvPKkscmlA.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ребята,добрый день!Я новичок в сео.Подскажите как убрать дубли Титл ,страниц.Сайт уже был создан не мною,найти того кто создавал не возможно.Есть какая нибудь инструкция?Помогите.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
1 час назад, Benny13 сказал:

Ребята,добрый день!Я новичок в сео.Подскажите как убрать дубли Титл ,страниц.Сайт уже был создан не мною,найти того кто создавал не возможно.Есть какая нибудь инструкция?Помогите.

дайте название движка и адрес сайта в личку

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
4 минуты назад, seoinfodom сказал:

дайте название движка и адрес сайта в личку

 

Только что, Benny13 сказал:

Webasyst        6404332.ru

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
3 минуты назад, seoinfodom сказал:

читай личку, ответил

Спасибо.Порыскаю

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Цитата

После изменения robots.txt и удаления ненужных страниц, Яндекс понизил абсолютно все позиции на сайте.

Может Вы вместе с ненужными страницами удалили те, которые хорошо ранжировались и приносили трафик?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ура ! Яндекс реально по кабинету вебмастера загнал в ...опу Гугл, и теперь расстаться с дублями очень легко, проверить все переадресации, все страницы проще простого!

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
В 20.11.2016 в 5:57 PM, 4o_kavo сказал:

Если у меня такая проблема то что делать?

Например давайте возьмем эту страницу : http://grandmods.ru/file/page/2/это вторая страница файлового раздела на сайте. 
Но она почему то дублируется (Да и не только она, такого много на сайте с каждым разделом) например вот, дубль этой самой страницы: http://grandmods.ru/file/file/file/file/file/file/file/page/2/ 
Просто добавляешь в строку /file и открывается та же самая страница, почему не пойму, сайт по идее должен выдавать ошибку, что такой страницы не существует.

Знаком с этой проблемой! Ищи в главном шаблоне сайта строку с признаком flie и посмотри что там не так. Вполне возможно ссылка не прописана корректно!
 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

История о том как я избавляюсь от дублей:
Прогон Netpeak Spider и пошел: 
- корректирую Title Description (формирую файл на внедрение)
- смотрю веб мастер Яндекс делаю выгрузку "статистика обхода" собираю ссылки от туда (дальше главное определить с какого раздела дубль)
и ТЗ на удаление дублей 
После удаления в robots.txt добавляю (так на всякий случай) и все 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Добрый день! Подскажите пожалуйста в чем ошибка, настраиваю редирект в файле .htaccess с www на без www, но все равно приходит код ответа сервера 200:

Пробывал вот такой код:

[HIDE] 
Options +FollowSymLinks 
RewriteEngine On 
RewriteCond %{HTTP_HOST} !^mysait\.ru [NC] 
RewriteRule (.*) http://mysait.ru/$1 [R=301,L] 

RewriteCond %{REQUEST_URI} /index.php 
RewriteCond %{QUERY_STRING} ^\z 
RewriteRule ^(.*)$ http://mysait.ru/? [R=301,L][/HIDE] 

в файле rorbots.txt Host тоже прописан

а также убираю открытие сайта по адресу musite.ru/index.php тоже приходит код 200.

Сейчас вот такой код:

RewriteEngine on
RewriteCond %{HTTP_HOST} ^(www\.mysait\.ru)(:80)? [NC]
RewriteRule ^(.*) http://mysait.ru/$1 [R=301,L]
order deny,allow

RewriteCond %{REQUEST_URI} /index.php
RewriteCond %{QUERY_STRING} ^\z
RewriteRule ^(.*)$ http://mysait.ru/? [R=301,L]

И все равно код ответ сервера 200.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Цитата
После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:
 
0_1199a1_d641c269_orig.jpg

Скрыны битые.

Какими параметрами именно? 

Спасибо. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!


Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.


Войти сейчас

  • Сейчас на странице   0 пользователей

    Нет пользователей, просматривающих эту страницу