Kufi

Members
  • Публикации

    474
  • Зарегистрирован

  • Посещение

  • Дней в лидерах

    2

Изменения репутации

  1. anton2015-1 понравилось сообщение в теме от Kufi в Как я расстался с дублями страниц   
    Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс. Ну все по порядку, в начале я в файле robots.txt открыл, сейчас мой роботс выглядит так:
     
    User-agent: *
    Disallow: /wp-includes
    Disallow: /feed
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: /wp-content/themes
    Host: сайт.com
    Sitemap: http ://сайт/sitemap.xml

    User-agent: Googlebot-Image
    Allow: /wp-content/uploads/

    User-agent: YandexImages
    Allow: /wp-content/uploads/
     
    После чего открыл файл .htaccess и добавил в него следующее :
     
    # BEGIN WordPress
    <IfModule mod_rewrite.c> RewriteEngine On RewriteBase / RewriteCond %{QUERY_STRING} ^replytocom= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule (.+)/feed /$1 [R=301,L] RewriteRule (.+)/comment-page /$1 [R=301,L] RewriteRule (.+)/trackback /$1 [R=301,L] RewriteRule (.+)/comments /$1 [R=301,L] RewriteRule (.+)/attachment /$1 [R=301,L] RewriteCond %{QUERY_STRING} ^attachment_id= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule ^index\.php$ - [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L] </IfModule>   # END WordPress   После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:     Все! Итого:   Дубли в Яндексе, он их выплюнул практически сразу:   Дубли в Гугле, тут очень долго, но медленно и верно их выкидывает из основного индекса:     P.S.   Ребята, на многие вопросы я ответить не смогу, я всего лишь фотоблогер, но подумал, что эта инфа может быть кому-нибудь полезна. Я рассказал, что сделал и что получил в результате. А как вы с этим боритесь я не знаю, но точно перекрытые сопли в роботсе ПС игнорируют и забирают себе в индекс!   Трафик из обоих ПС начал значительно подниматься!   UPDATE   Совсем забыл добавить! После этих манипуляций, я завел себе файлик с Экселя и каждый понедельник следил за динамикой! Еще скрин:       UPDATE 15.09.2015   Прошел почти год после работы с дублями и хотел добавить рост трафика за это время.   Первый скрин за октябрь 2014, собственно, сразу посе того, как убрал дубли     И спустя почти год. Пояснение: на сайт добавлялись только статьи, ничего не закупалось, нигде не прогонялось. Чисто внутренней оптимизацией.  
  2. anton2015-1 понравилось сообщение в теме от Kufi в Как я расстался с дублями страниц   
    Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс. Ну все по порядку, в начале я в файле robots.txt открыл, сейчас мой роботс выглядит так:
     
    User-agent: *
    Disallow: /wp-includes
    Disallow: /feed
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: /wp-content/themes
    Host: сайт.com
    Sitemap: http ://сайт/sitemap.xml

    User-agent: Googlebot-Image
    Allow: /wp-content/uploads/

    User-agent: YandexImages
    Allow: /wp-content/uploads/
     
    После чего открыл файл .htaccess и добавил в него следующее :
     
    # BEGIN WordPress
    <IfModule mod_rewrite.c> RewriteEngine On RewriteBase / RewriteCond %{QUERY_STRING} ^replytocom= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule (.+)/feed /$1 [R=301,L] RewriteRule (.+)/comment-page /$1 [R=301,L] RewriteRule (.+)/trackback /$1 [R=301,L] RewriteRule (.+)/comments /$1 [R=301,L] RewriteRule (.+)/attachment /$1 [R=301,L] RewriteCond %{QUERY_STRING} ^attachment_id= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule ^index\.php$ - [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L] </IfModule>   # END WordPress   После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:     Все! Итого:   Дубли в Яндексе, он их выплюнул практически сразу:   Дубли в Гугле, тут очень долго, но медленно и верно их выкидывает из основного индекса:     P.S.   Ребята, на многие вопросы я ответить не смогу, я всего лишь фотоблогер, но подумал, что эта инфа может быть кому-нибудь полезна. Я рассказал, что сделал и что получил в результате. А как вы с этим боритесь я не знаю, но точно перекрытые сопли в роботсе ПС игнорируют и забирают себе в индекс!   Трафик из обоих ПС начал значительно подниматься!   UPDATE   Совсем забыл добавить! После этих манипуляций, я завел себе файлик с Экселя и каждый понедельник следил за динамикой! Еще скрин:       UPDATE 15.09.2015   Прошел почти год после работы с дублями и хотел добавить рост трафика за это время.   Первый скрин за октябрь 2014, собственно, сразу посе того, как убрал дубли     И спустя почти год. Пояснение: на сайт добавлялись только статьи, ничего не закупалось, нигде не прогонялось. Чисто внутренней оптимизацией.  
  3. anton2015-1 понравилось сообщение в теме от Kufi в Как я расстался с дублями страниц   
    Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс. Ну все по порядку, в начале я в файле robots.txt открыл, сейчас мой роботс выглядит так:
     
    User-agent: *
    Disallow: /wp-includes
    Disallow: /feed
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: /wp-content/themes
    Host: сайт.com
    Sitemap: http ://сайт/sitemap.xml

    User-agent: Googlebot-Image
    Allow: /wp-content/uploads/

    User-agent: YandexImages
    Allow: /wp-content/uploads/
     
    После чего открыл файл .htaccess и добавил в него следующее :
     
    # BEGIN WordPress
    <IfModule mod_rewrite.c> RewriteEngine On RewriteBase / RewriteCond %{QUERY_STRING} ^replytocom= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule (.+)/feed /$1 [R=301,L] RewriteRule (.+)/comment-page /$1 [R=301,L] RewriteRule (.+)/trackback /$1 [R=301,L] RewriteRule (.+)/comments /$1 [R=301,L] RewriteRule (.+)/attachment /$1 [R=301,L] RewriteCond %{QUERY_STRING} ^attachment_id= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule ^index\.php$ - [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L] </IfModule>   # END WordPress   После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:     Все! Итого:   Дубли в Яндексе, он их выплюнул практически сразу:   Дубли в Гугле, тут очень долго, но медленно и верно их выкидывает из основного индекса:     P.S.   Ребята, на многие вопросы я ответить не смогу, я всего лишь фотоблогер, но подумал, что эта инфа может быть кому-нибудь полезна. Я рассказал, что сделал и что получил в результате. А как вы с этим боритесь я не знаю, но точно перекрытые сопли в роботсе ПС игнорируют и забирают себе в индекс!   Трафик из обоих ПС начал значительно подниматься!   UPDATE   Совсем забыл добавить! После этих манипуляций, я завел себе файлик с Экселя и каждый понедельник следил за динамикой! Еще скрин:       UPDATE 15.09.2015   Прошел почти год после работы с дублями и хотел добавить рост трафика за это время.   Первый скрин за октябрь 2014, собственно, сразу посе того, как убрал дубли     И спустя почти год. Пояснение: на сайт добавлялись только статьи, ничего не закупалось, нигде не прогонялось. Чисто внутренней оптимизацией.  
  4. Kufi понравилось сообщение в теме от gensokolsky в Кому дать уникальный текст?   
    Тема: соперником сборной Ирландии в квалификационных матчах за выход на Евро-2016 может стать и сборная Украины. Перевод статьи The Irish Times
     
    1544 символа. 
  5. anton2015-1 понравилось сообщение в теме от Kufi в Как я расстался с дублями страниц   
    Друзья привет! Я не СЕО мастер, но на своем примере хочу рассказать, как я избавился от дублей страниц, которых у меня было более 40 тыс. Ну все по порядку, в начале я в файле robots.txt открыл, сейчас мой роботс выглядит так:
     
    User-agent: *
    Disallow: /wp-includes
    Disallow: /feed
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: /wp-content/themes
    Host: сайт.com
    Sitemap: http ://сайт/sitemap.xml

    User-agent: Googlebot-Image
    Allow: /wp-content/uploads/

    User-agent: YandexImages
    Allow: /wp-content/uploads/
     
    После чего открыл файл .htaccess и добавил в него следующее :
     
    # BEGIN WordPress
    <IfModule mod_rewrite.c> RewriteEngine On RewriteBase / RewriteCond %{QUERY_STRING} ^replytocom= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule (.+)/feed /$1 [R=301,L] RewriteRule (.+)/comment-page /$1 [R=301,L] RewriteRule (.+)/trackback /$1 [R=301,L] RewriteRule (.+)/comments /$1 [R=301,L] RewriteRule (.+)/attachment /$1 [R=301,L] RewriteCond %{QUERY_STRING} ^attachment_id= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule ^index\.php$ - [L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L] </IfModule>   # END WordPress   После чего зашел в панель Вебмастера Гугл, ибо к дублям Гугл относится уж сильно трепетно, в раздел Сканирование - Параметры URL и добавил новый параметр под названием replytocom со следующими параметрами:     Все! Итого:   Дубли в Яндексе, он их выплюнул практически сразу:   Дубли в Гугле, тут очень долго, но медленно и верно их выкидывает из основного индекса:     P.S.   Ребята, на многие вопросы я ответить не смогу, я всего лишь фотоблогер, но подумал, что эта инфа может быть кому-нибудь полезна. Я рассказал, что сделал и что получил в результате. А как вы с этим боритесь я не знаю, но точно перекрытые сопли в роботсе ПС игнорируют и забирают себе в индекс!   Трафик из обоих ПС начал значительно подниматься!   UPDATE   Совсем забыл добавить! После этих манипуляций, я завел себе файлик с Экселя и каждый понедельник следил за динамикой! Еще скрин:       UPDATE 15.09.2015   Прошел почти год после работы с дублями и хотел добавить рост трафика за это время.   Первый скрин за октябрь 2014, собственно, сразу посе того, как убрал дубли     И спустя почти год. Пояснение: на сайт добавлялись только статьи, ничего не закупалось, нигде не прогонялось. Чисто внутренней оптимизацией.  
  6. Kufi понравилось сообщение в теме от node.js в Новый КиноПоиск! Как Вам?   
    да, вроде как еще в 2013
     
    По теме, мне нравится, а опрос вобще бессмысленный, как будто он что то решит =) Там еще 100% будут проводится изменения.
     
    Вспомните как гугл ютуб изменил, столько негатива было и что? Все довольны!
  7. Kufi понравилось сообщение в теме от SeoSergey в Минусы в карму   
    И зачем создали этот геморой? Как по мне, кнопочки "нравится" было вполне достаточно.
  8. Kufi понравилось сообщение в теме от campusboy в Кто нибудь работал с темой Novomag для Wordpress?   
    Удаляется лишь часть кода, которая сама по себе очень мало занимает Kb, то есть физически страница будет загружаться практически также. Но после Загрузки всей страницы Джиквери проходится по DOM-дереву, находит все картинки и добавляет opacity, То есть отрисовка страницы замедляется из-за этого, нагружается процессор вдобавок (насколько, не замерял). Это моё мнение.
  9. Kufi понравилось сообщение в теме от Dixx в Кто нибудь работал с темой Novomag для Wordpress?   
    Переименование ничего не дало, таж же грузятся с задержкой.
     
     
    В том то и дело что в настройках не отключается.
    https://yadi.sk/d/ouzuhaxVjWCNN
  10. Kufi понравилось сообщение в теме от voloskov97 в Достижения в топ на 7 позиции   
    Вы лучше бы не писали здесь, сколько у вас радости, а дали лучше бы совет как достигли, и что делали для того что бы конкурировать, и сколько денег потратили на вывод в топ. За все эти действия можно было и + бы поставить, а то что вы радостный такой здесь всем до фени-пени. А так конечно можно порадоваться за человека)))
  11. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  12. Kufi понравилось сообщение в теме от sansan в Как я расстался с дублями страниц   
    Борьбу" с дублями всегда вел через robots.txt
    WP или Джумла! (или dle, или ipb). Есть список страниц, есть структура сайта (в Вебмастер). Сиди, кликай, разбирайся. Каждый конкретный сайт - "выдаст" свои дубли, помимо стандартных (и не только дублей, но и конкретного "хлама"). Шаблонных методов, имхо, нет.
     
    Многое зависит от многого. Включили "Текстовая версия" в ipb - получите дубликат форума, включили "Печать" или "Версия .pdf (в любом cms) - ролучите еще две копии сайта... Не rss единым. И - /*index.php или /*? - генерят движки (нередко). Можно еще дубли .doc выложить... "до-кучи".
    А уж сортировка... и не сосчитаешь. Есть VM магазин? - "просмотр товара" и пр. настройки карточки товара "нагенят" такого, что только успевать "закрывать".
     
    Сколько сайтов, столько и версий "борьбы".
    Понятно, что дубли - зло. Только вот рецептуры общей нет. Зато у всех - есть Яндекс.Вебмастер и Гугл.Вебмастер. Это - единственный рецепт "сокрытия" дублей хотя бы на 90%.
     
    Впрочем... каждому своё. Наверное и метода в стартопе пригодится. Почему бы и не так... что-то "прикроет".
    Процитирую только предостережение Гугл:
    Стоит проявить известную осторожность при работе с инструментарием. Он - "острый".
  13. Tru понравилось сообщение в теме от Kufi в Поднятия позиций в поисковой системе Google   
     
    Почему нет? Делают эксперименты. Вот такие
     
    P.S. Не хвастаюсь
  14. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  15. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  16. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  17. Kufi понравилось сообщение в теме от Tru в Новый конкурс от Яндекса   
    Добро пожаловать в театр абсурда, под названием Яндекс
     
     

     
    У них третий год подряд прибыль падает, почти на 200%, народ массово на ГугЛ валит,
     
    а они плюшками шалят
     

  18. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  19. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  20. Kufi понравилось сообщение в теме от gefard в Новый конкурс от Яндекса   
     



     
    Ссылку то специально поставят, как победителю
    уже не естественно
               
  21. Kufi понравилось сообщение в теме от Griffin в Новый конкурс от Яндекса   
    Яша подарит ссылку, потом его алгоритмы в очередной раз дадут сбой, и победитель получит еще и Минусинск в нагрузку к подарку.
  22. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  23. Griffin понравилось сообщение в теме от Kufi в Новый конкурс от Яндекса   
    Один победитель, а всех остальных под Фильтр)))
  24. Transformer понравилось сообщение в теме от Kufi в М.Видео и лох, что общего?