kiberwebinfo 4 Posted January 6, 2015 Report Share Posted January 6, 2015 А как проверить наличие дублей в Яндексе? В поиске Яндекс: site:ваш_ресурс/& Весь мусор и дубли выдаются на последних страницах! Их-то и нужно исключать из поиска. Link to post Share on other sites
Brown 1 Posted January 14, 2015 Report Share Posted January 14, 2015 если у меня на html и моя главная скопирована и находится на другом сайте (но не в качестве главной и с неё идёт ссылка на меня): могу ли я бороться с этим такими методами? или можно не трогать? всегда ваш. Link to post Share on other sites
CyberEngine 20 Posted January 15, 2015 Report Share Posted January 15, 2015 А случайно ни кто не знает как такое же проделать с Joomla 3Х? а именно интересует feed rss atom и особенно вот с этой гадостью: /component/search/?Itemid=101&catid=20&id=18&format=opensearch ? Такой код писать?: # RewriteBase / RewriteRule (.+)/feed /$1 [R=301,L] RewriteRule (.+)/search /$1 [R=301,L] RewriteRule (.+)/rss /$1 [R=301,L] RewriteRule (.+)/atom /$1 [R=301,L] Link to post Share on other sites
kiberwebinfo 4 Posted January 19, 2015 Report Share Posted January 19, 2015 если у меня на html и моя главная скопирована и находится на другом сайте (но не в качестве главной и с неё идёт ссылка на меня): могу ли я бороться с этим такими методами? или можно не трогать? всегда ваш. Предложенный метод позволяет устранить мусор на Вашем сайте. А за Вашу схему дублирования контента и неестественный обмен ссылками можно поисковый фильтр схлопотать! Link to post Share on other sites
instrumentariy 0 Posted January 20, 2015 Report Share Posted January 20, 2015 Привет друзья ! Для IPB никто не нашёл как найти и убрать из индекса дубли ? Link to post Share on other sites
NeoDolby 5 Posted January 22, 2015 Report Share Posted January 22, 2015 ну а что, вполне полезно, спасибо за инфу по вп. Link to post Share on other sites
noni71rus 157 Posted February 18, 2015 Report Share Posted February 18, 2015 Не знал что из веб мастера Гугла можно закрыть дубли. Спасибо за инфу. Что только неделал уже, чтобы на одном из сайтов генерируемые страницы, при подборе параметров из индекса выкинуть. Посмотрим как сработают эти настройки. Link to post Share on other sites
seosko 57 Posted February 21, 2015 Report Share Posted February 21, 2015 у вас Дважды в документе htaccess в правилах повторяется одна строка - RewriteRule (.*) $1? [R=301,L] (одна лишней получается). Link to post Share on other sites
raynar 94 Posted February 21, 2015 Report Share Posted February 21, 2015 интересно было про Vbulletin ,не мне одному) Link to post Share on other sites
canchec 0 Posted July 13, 2015 Report Share Posted July 13, 2015 а как на джумле сделать? Link to post Share on other sites
vovamayskiy 0 Posted July 14, 2015 Report Share Posted July 14, 2015 Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс. Ну все по порядку, в начале я в файле robots.txt открыл, сейчас мой роботс выглядит так: User-agent: * Disallow: /wp-includes Disallow: /feed Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Host: сайт.com Sitemap: http ://сайт/sitemap.xml User-agent: Googlebot-Image Allow: /wp-content/uploads/ User-agent: YandexImages Allow: /wp-content/uploads/ После чего открыл файл .htaccess и добавил в него следующее : # BEGIN WordPress <IfModule mod_rewrite.c> RewriteEngine On RewriteBase / RewriteCond %{QUERY_STRING} ^replytocom= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule (.+)/feed /$1 [R=301,L] RewriteRule (.+)/comment-page /$1 [R=301,L] RewriteRule (.+)/trackback /$1 [R=301,L] RewriteRule (.+)/comments /$1 [R=301,L] RewriteRule (.+)/attachment /$1 [R=301,L] RewriteCond %{QUERY_STRING} ^attachment_id= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule ^index\.php$ - [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L] </IfModule> # END WordPress После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами: Все! Итого: Дубли в Яндексе, он их выплюнул практически сразу: Дубли в Гугле, тут очень долго, но медленно и верно их выкидывает из основного индекса: P.S. Ребята, на многие вопросы я ответить не смогу, я всего лишь фотоблогер, но подумал, что эта инфа может быть кому-нибудь полезна. Я рассказал, что сделал и что получил в результате. А как вы с этим боритесь я не знаю, но точно перекрытые сопли в роботсе ПС игнорируют и забирают себе в индекс! Трафик из обоих ПС начал значительно подниматься! UPDATE Совсем забыл добавить! После этих манипуляций, я завел себе файлик с Экселя и каждый понедельник следил за динамикой! Еще скрин: Плагин есть классный-Fix Duplicates!Сам пользуюсь! Link to post Share on other sites
kuzovbmw 587 Posted July 21, 2015 Report Share Posted July 21, 2015 спасибо, интересная статья Link to post Share on other sites
sedoirus 13 Posted July 21, 2015 Report Share Posted July 21, 2015 Fix Duplicates выполняет немного другую функцию. Неполные дубли он не видит. Link to post Share on other sites
silence1988 340 Posted July 21, 2015 Report Share Posted July 21, 2015 Давненько научился правильно под себя роботс составлять и прочие мелочи, проблема дублей уже несколько лет не беспокоит ) Главное разок сесть и вникнуть во все. Раньше парило в гугле хлама много было. Сейчас с гуглом и яшей разброс всего максимум 15 страниц. bozon 1 Link to post Share on other sites
ДимкаКО 0 Posted August 15, 2015 Report Share Posted August 15, 2015 Ну, настроил так же как и ТС, посмотрим.... Link to post Share on other sites
RIskakov 23 Posted September 14, 2015 Report Share Posted September 14, 2015 Спасибо! Помогло! Kufi 1 Link to post Share on other sites
msv 5 Posted September 15, 2015 Report Share Posted September 15, 2015 Поясните подробнее, вот эту формулировку. Для чего, что она дает и тд После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование -Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами: Link to post Share on other sites
Kufi 127 Posted September 15, 2015 Author Report Share Posted September 15, 2015 Поясните подробнее, вот эту формулировку. Для чего, что она дает и тд Для отслеживания УРЛов replytocom Дает она статистику по изменению количества дублирующих страниц и, соответственно, дает Гуглу понять, что этот параметр как-то изменяет содержимое. И если я правильно понял, то знает, что такой параметр является дублирующим содержимом. Как-то так... Если кто знает точно, буду рад узнать тоже ) Link to post Share on other sites
msv 5 Posted September 15, 2015 Report Share Posted September 15, 2015 т.е это лишь статистика, она никак (переменная эта) не влияет на удаление дубля. Link to post Share on other sites
Kufi 127 Posted September 15, 2015 Author Report Share Posted September 15, 2015 т.е это лишь статистика, она никак (переменная эта) не влияет на удаление дубля. Да фиг его знает. При создании параметра указываешь, что типо этот параметр меняет содержимое. Хотя я не заморачивался, работает и пусть работает Link to post Share on other sites
kamrad 0 Posted September 15, 2015 Report Share Posted September 15, 2015 Спасибо дружище. Надо будет на своих WP сайтах попробовать. Link to post Share on other sites
Kufi 127 Posted September 15, 2015 Author Report Share Posted September 15, 2015 Спасибо дружище. Надо будет на своих WP сайтах попробовать. Попробуй, у меня все получилось. И я добавил скрины в стартовый топик с трафиком Link to post Share on other sites
NuBiK147 48 Posted September 15, 2015 Report Share Posted September 15, 2015 После того как прочитал эту статью, решил "реанимировать" свой сайт на WP. Посмотрим что выйдет Kufi 1 Link to post Share on other sites
sansan 27 Posted September 28, 2015 Report Share Posted September 28, 2015 Борьбу" с дублями всегда вел через robots.txt WP или Джумла! (или dle, или ipb). Есть список страниц, есть структура сайта (в Вебмастер). Сиди, кликай, разбирайся. Каждый конкретный сайт - "выдаст" свои дубли, помимо стандартных (и не только дублей, но и конкретного "хлама"). Шаблонных методов, имхо, нет. Многое зависит от многого. Включили "Текстовая версия" в ipb - получите дубликат форума, включили "Печать" или "Версия .pdf (в любом cms) - ролучите еще две копии сайта... Не rss единым. И - /*index.php или /*? - генерят движки (нередко). Можно еще дубли .doc выложить... "до-кучи". А уж сортировка... и не сосчитаешь. Есть VM магазин? - "просмотр товара" и пр. настройки карточки товара "нагенят" такого, что только успевать "закрывать". Сколько сайтов, столько и версий "борьбы". Понятно, что дубли - зло. Только вот рецептуры общей нет. Зато у всех - есть Яндекс.Вебмастер и Гугл.Вебмастер. Это - единственный рецепт "сокрытия" дублей хотя бы на 90%. Впрочем... каждому своё. Наверное и метода в стартопе пригодится. Почему бы и не так... что-то "прикроет". Процитирую только предостережение Гугл: Используйте эту функцию, только если вам точно известно, как тот или иной параметр влияет на работу вашего сайта. Если вы по ошибке запретите Google сканировать URL с определенными параметрами, значительная часть страниц вашего сайта может пропасть из результатов поиска. Стоит проявить известную осторожность при работе с инструментарием. Он - "острый". Kufi and 695140 2 Link to post Share on other sites
Upcheck 0 Posted October 16, 2015 Report Share Posted October 16, 2015 Подскажите пожалуйста, как определить дубли на сайте? есть точная методика? Коллеги, есть сервис оптимизации сайтов, добавляете проект и получаете технический аудит со всеми дублями страниц, тайтлов. Link to post Share on other sites
Recommended Posts
Please sign in to comment
You will be able to leave a comment after signing in
Sign In Now