Поиск по сайту

Результаты поиска по тегам 'www'.

  • Поиск по тегам

    Введите теги через запятую.
  • Поиск по автору

Тип публикаций


Категории и разделы

  • Поисковые системы
    • Поисковая оптимизация
    • Яндекс
    • Google
    • Другие поисковики
    • SMO
    • Каталоги
    • Инструкции и уроки
  • Основные форумы
    • Новости
    • Контекстная реклама
    • Партнерские программы
    • Сервисы, программы и скрипты
    • Дизайн
    • Домены
    • Биржа сайтов
    • Сайтостроительство
    • Хостинг
    • Финансы
    • Разное
    • Конкурсы
  • Работа
    • Правила раздела
    • Дизайн
    • Копирайт/Рерайт
    • SEO
    • SMO/SMM
    • Программирование
    • Разное
  • Другое
    • О нас
    • Black List
    • White List
    • Оффтопик

Найдено 3 результата

  1. Добрый день Подскажите, кто компетентный, столкнулся с такой проблемой. При индексирвоании в Гугл, попадаю тстраницы с адерсами www.сайт.юа/раздел/страница.html Хотя весб сайт работает без www Изначально в .htacces настроена переадерсация с www.сайт.юа на https://сайт.юа но вот внутрении страницы не переадресовываются. В sitemap.xml прописаны все страницы без www. Однако гугл берет и индексирует страницы сwww.Получается дубль контента. У меня вопрос: это так должно быть или может в робот.тхт запретить все что начинается с www.сайт.юа. Но я не знаю насколько єто допустимо, что бы хуже не сделать? Или это нужными сложными рег выражениями настраивать переадресации на все внутренние страницы сайта? Или почему в индекс попадают страницы с www. Я их нигде не показываю. Помогите разобраться, удалять руками дубли уже достало.
  2. Есть проблема, точнее проблем сразу много, постараюсь подробно все разложить. А если у кого возникнут идеи, как их можно решить я буду безмерно благодарен. Все проблемы возникли по незнанке: при переносе сайта на новый хостинг было предложено установить "бесплатный" сертификат SSL, что и было сделано. 1) Проблема номер раз: слить весь трафик на https://termolex.ru Проблема была решена кодом в .htaccess RewriteEngine On RewriteCond %{SERVER_PORT} !^443$ RewriteRule .* https://%{SERVER_NAME}%{REQUEST_URI} [R,L] Но возникли другие: а) ответ сервера и по WWW и по NO WWW стал "302 Found" Вопрос: может ли стать это проблемой при индексации, продвижении в ПС? б) страницы проиндексированные Яшей c www и при прямос заходе через www. в браузер стал выдавать сообщение: С этим все более менее ясно. Надо купить Wildcart SSL установить и проблема исчезнет. 2) Самая главная, на мой взгляд, проблема: Яндекс частично проиндексировал несколько версий сайта: а) http://termolex.ru б) http://www.termolex.ru в) https://termolex.ru Главное зеркало, указанно в вебмастере г) https://www.termolex.ru Можно ли и сделать редирект всех версий на https://termolex.ru. У меня пока не удалось это сделать т.к. сайт уходит в циклическую переадресацию или продолжает выдавать ошибки. Примерно так: RewriteEngine On RewriteCond %{SERVER_PORT} !^443$ RewriteRule .* https://%{SERVER_NAME}%{REQUEST_URI} [R,L] RewriteCond %{HTTP_HOST} ^www.termolex\.ru$ [NC] RewriteRule ^(.*)$ https://termolex.ru/$1 [R=301,L] Вопросы: Какие последствия возникнут если termolex.ru и www.termolex.ru будут выдавать ответ сервера 302? Как можно решить проблему с дублями в индексе? Как слить весь трафик на https://termolex.ru? Буду благодарен за любую помощь по данному вопросу. Заранее спасибо.
  3. Господа форумчане! Подскажите с вопросом. Преамбула. Сайт внесен в google Вебмастер с WWW и без. С WWW - много показывает входящих ссылок (в разделе "Ссылки на ваш смайт"), а без WWW - всего 6. При этом "Предпочтительный домен вашего сайта" - стоит без WWW. Теперь вопрос. Как сделать чтоб Гугл "склеивал" ссылки? Ну чтоб он считал, что на без WWW также ссылается много сайтов? Или это неважно и представленная информация - чисто для меня, чтоб я понимал, сколько ссылок на с WWW и без него? Для Яши в robots.txt явно прописано Host: site.ru - т.е. без WWW. PS вопрос номер 2. Для Яши сайт с www тоже надо добавлять? PPS для всех страниц прописан 301 редирект в файле .htaccess с WWW на без.