Поиск по сайту

Результаты поиска по тегам 'дубли страниц'.

  • Поиск по тегам

    Введите теги через запятую.
  • Поиск по автору

Тип публикаций


Категории и разделы

  • Поисковые системы
    • Поисковая оптимизация
    • Яндекс
    • Google
    • Другие поисковики
    • SMO
    • Каталоги
    • Инструкции и уроки
  • Основные форумы
    • Новости
    • Контекстная реклама
    • Партнерские программы
    • Сервисы, программы и скрипты
    • Дизайн
    • Домены
    • Биржа сайтов
    • Сайтостроительство
    • Хостинг
    • Финансы
    • Разное
    • Конкурсы
  • Работа
    • Правила раздела
    • Дизайн
    • Копирайт/Рерайт
    • SEO
    • SMO/SMM
    • Программирование
    • Разное
  • Другое
    • О нас
    • Black List
    • White List
    • Оффтопик

Найдено 2 результата

  1. Помогите, пожалуйста! Яндекс выкинул из поиска почти все страницы, которые были топовыми по запросам. Сайту 1 год, проблем никаких не было. Поисковик расценил эти страницы как дубли на главную страницу сайта. Вот сам сайт Ссылка Какие это дубли, если тексты, заголовки совершенно разные? Если про ошибки сервера, то на этом же хостинге есть еще один сайт, на таком же движке, настроен аналогичным образом, меню и виджеты созданы аналогичным образом, но его проблема не коснулась. Установлен плагин All in one seo pack, поставлены галочки на Канонические url и Запретить пагинацию для канонических URL. Могло ли это повлиять на выброс страниц из поиска как дублей? В роботс также есть настройки запрета дублей, может некоторые из них некорректны и надо что-то исправить? User-agent: * Disallow: /cgi-bin Disallow: /wp- Disallow: /? Disallow: /search/ Disallow: *?s= Disallow: *&s= Disallow: /trackback Disallow: */trackback Disallow: */*/trackback Disallow: */feed Disallow: /feed/ Disallow: /?feed= Disallow: */*/feed Disallow: */*/feed/*/ Disallow: /*?* Disallow: /tag Disallow: /tag/* Disallow: /?s=* Disallow: /page/* Disallow: /author Disallow: /2015 Disallow: */embed Disallow: *utm= Disallow: *openstat= Disallow: /tag/ # Disallow: /xmlrpc.php Allow: */uploads User-agent: GoogleBot Disallow: /cgi-bin Disallow: /? Disallow: /search/ Disallow: /author/ Disallow: /users/ Disallow: /wp- Disallow: *?s= Disallow: *&s= Disallow: */trackback Disallow: */feed Disallow: */rss Disallow: */embed Disallow: /xmlrpc.php Disallow: *utm= Disallow: *openstat= Allow: */uploads Allow: /*/*.js Allow: /*/*.css Allow: /wp-*.png Allow: /wp-*.jpg Allow: /wp-*.jpeg Allow: /wp-*.gif Allow: /wp-admin/admin-ajax.php User-agent: Yandex Disallow: /cgi-bin Disallow: /? Disallow: /wp- Disallow: *?s= Disallow: *&s= Disallow: /search/ Disallow: /author/ Disallow: /users/ Disallow: */trackback Disallow: */feed Disallow: */rss Disallow: */embed Disallow: /xmlrpc.php Allow: /wp-*.jpg Allow: /wp-admin/admin-ajax.php Allow: */uploads Allow: /wp-*.jpeg Allow: /wp-*.gif Allow: /*/*.js Allow: /*/*.css Allow: /wp-*.png Clean-Param: utm_source&utm_medium&utm_campaign Clean-Param: openstat Кстати, от рег ру приходило такое сообщение: Технические работы Здравствуйте! Вас приветствует Регистратор доменныx имен REG.RU! Уважаемые клиенты! Информируем вас о том, что 03.10.2018 года в период с 00:00 до 06:00 часов по московскому времени будут проводиться плановые работы по обновлению программного обеспечения серверов: ххх.hosting.reg.ru на которых располагаются следующие услуги: Web-хостинг (тариф ххх) для ххх Планируемое время проведения технических работ в указанный период составит порядка 1 часов и 0 минут. В течение этого времени все сайты и сервисы на данном сервере будут недоступны. Приносим свои извинения за возможные неудобства. И привожу теперь скопированное из вебмастера (может, это технические работы на сервере повлияли? но другой сайт без проблем индексируется): Обновление Статус и URL Последнее посещение Заголовок 12.10.2018 /kontakty/ Дубль 07.10.2018 /peskostruynaya-kamera-apparat-dlya-peskostruya/ Дубль 07.10.2018 10.10.2018 /rezinotehnicheskie-izdeliya/konveyernaya-lenta-bknl-tk/ Дубль 06.10.2018 /rezinotehnicheskie-izdeliya/remen-ventilyatornyy-klinovoy/ Дубль 06.10.2018 07.10.2018 /ceny-na-elektromontazhnye-uslugi-vyzov-elektrika-voronezh/ Дубль 04.10.2018 /elevatornoe-oborudovanie/ Дубль 03.10.2018 /elevatornoe-oborudovanie/konveyer-lentochnyy-skrebkovyy-shnek/ Дубль 03.10.2018 /elevatornoe-oborudovanie/noriynyy-bolt-gayka-shayba/ Дубль 03.10.2018 /elevatornoe-oborudovanie/noriynyy-kovsh-polimer-metall/ Дубль 03.10.2018 /elevatornoe-oborudovanie/rolik-konveyernyy/ Дубль 04.10.2018 /elevatornoe-oborudovanie/samoteki-zernovye/ Дубль 04.10.2018 /poroshkovaya-kamera-pech-polimerizacii-poroshkovo-polimernaya-pokrasochnaya-liniya/ Дубль 03.10.2018 /poroshkovaya-polimernaya-pokraska-peskostruynaya-obrabotka-metalla-diskov-dereva-stekla/ Дубль 03.10.2018 /remont-peremotka-elektrodvigateley/ Дубль 03.10.2018 /rezinotehnicheskie-izdeliya/remen-privodnoy-klinovoy/ Дубль 04.10.2018 /ventilyator-voe-5-krylchatka-rabochee-koleso-lopatka/ Дубль 03.10.2018
  2. Подскажите такую вещь. У постов блога прописываю тэги. При нажатии на такой тэг открывается страница со списком превью всех постов связанных с ним. Адрес таких страниц site.ру/тэги/тэгномер1 site.ру/тэги/тэгномер2 site.ру/тэги/тэгномер3 и так далее. Дело в том, что поиск проиндексировал все эти страницы. Вопрос в том нужно ли закрывать в robots такие страницы от индексации? Если не нужно, то будут они считаться дублями? По сути на них контент повторяется только в превью укороченном, который встречается только на главной странице и на странице категории с превью постов. Но получается что частично встречается, так как тэг может формировать страницу из постов многих категорий.