Jump to content

petroff

Members
  • Content Count

    1739
  • Joined

  • Last visited

  • Days Won

    137

Everything posted by petroff

  1. Когда говоришь друзьям, что у тебя есть биткойн, но он у бабушки в деревне
  2. Примеры и цены смотрите в ЛС
  3. У Вас какие-то проблемы с html. Если недавно меняли шаблон, то от этого все проблемы. У вас много кода и мало ссылок Например так <div class="scenery scenery_second"> <div class="scene"> <div class="scene__archive-leafs"> <div class="scene__leaf scene__leaf_1"> </div> <div class="scene__leaf scene__leaf_2"> </div> <div class="scene__leaf scene__leaf_3"> </div> <div class="scene__leaf scene__leaf_4"> </div> <div class="scene__leaf scene__leaf_5"> </div&
  4. В вашем случае это на хэши/якоря. Это AJAX супер-пупер технологии. Чтобы закрыть такие страницы, добавьте в роботс правило Disallow: /?_escaped_fragment=* Само собой вы должны понимать что делаете. + Правило в роботсе должно составляться с учетом того, где в ваших урлах находятся символы #!
  5. Там дальше начала, где автор объясняет, как работает отложенная загрузка смысла нет читать. В общем-то, как и большинство статей об IT на vc.ru
  6. Я наоборот стараюсь переделывать все изображения в img scr/ Для background-image сложнее сделать lazy-load, хотя по по ленивой загрузке тоже есть вопросы в плане индексации. Не знаю где первоисточник, ссылка - vc ru/seo/169540-kak-lazy-load-ubivaet-vashi-sayty-i-chto-s-etim-delat Теоретически, если файл стилей открыт для доступа ботов ПС, то с индексацией изображений проблем возникнуть не должно/ Проверять в google mobile friendly ТС, LCP это скорее всего актуально для мобилок. Настройка кэширования, минимум js в head, предзагрузка изображений в области первого экрана при нормальном
  7. Чувак, ты опять дичь какую-то пишешь. Кто серьезно занимается сайтами имеет большое подтвержденное портфолио. Уж лучше б ты вообще ничего не писал
  8. Ну да. Это здесь на форуме все крутые специалисты и работают с международными компаниями и зарабатывают миллионы. На самом деле нет. Основные заказчики - это ИПэшники и продаваны (менеджеры средних компаний). Просите контакты заказчиков. Ну уж как минимум проверьте, чтобы отчет по сайту не был скачан со стороннего сайта
  9. Шизой какой-то пахнет. Большей фигни в жизни не читал и не слышал @AlexVL прежде чем у кого-то что-то заказывать, просите подтвержденные портфолио, подтвержденные примеры аудитов и пр. И перечитайте предыдущие сообщения в топиках от вышеуказанного автора. Он по сео и web-разработке на этом форуме еще ничего толкового не написал, все про какие-то загадочные анализаторы и технологии втирает 32 к за аудит даже сео-компании себе не позволяют
  10. Откуда такие умные берутся? Подскажите конвертер шрифтов, чтобы ничего лишнего в файлы не подсунул. Я помню вроде у гугла или apple был, но что-то не могу найти
  11. От движка не зависит. Создаете 2 js файла и файл manifest.webmanifest. Содержимое файлов 2 постами выше. Файлы подключаете в head или футере, где будут работать. Код кнопки кнопки тоже копируете и вставляете в любое место страницы
  12. Из собственного опыта могу сказать, что для яндекса файл robots.txt - инструкция, а гугл уже пару лет назад положил на все его директивы большой болт . Если в html есть ссылки на страницы, которые закрыты в роботсе, то гугл все равно по ним гуляет. Это даже по логам видно. А в вм часто прилетает сообщение типа "проиндексировано не смотря на запрет в роботсе ". Для полного запрета индекации используйте тег <meta name="robots" content="noindex".... Этот тег и для гугл и для яндекса работает одинаково - не запрещает посещать страницу, на запрещает переходить по ссылкам на странице, но запрещае
  13. Если хотите продвигать сайт, то он совсем не серьезный ) Начните с оптимизации, перевода на https и "наведения красоты"
  14. Я первый раз это слово слышу Я не php программист космического уровня, но я перевел больше сотни сайтов на https без плагинов, тупой заменой в БД и проблем особых не было. У ТС, вероятно, проблема схожая. Слетят настройки, погуглят про сериализацию. Чё уж там, гражданские сайты на вордпресс, как легко ломаются, также легко и делаются
  15. В базе данных сделайте замену старого домена на новый да и всё
  16. Какие граберы? Я думаю, надо взять шаблон сайта, исходную базу данных и с помощью замены менять города и ставить на поддомены
  17. http://htmlbook.ru/css3-na-primerakh/lineinyi-gradient
  18. Я ваш движок в глаза не видел, но судя по коду, здесь написано, какие страницы запрещать для индексации и какой выводить тайтл в зависимости от шаблона. Если это убрали, то проверьте основные типы страниц в инструменте проверки ответа сервера яндекса. Если где-то noindex остался, то покажет. Еще смотрите, чтобы nofollow нигде не остался. Это уже надо смотреть в самом html коде после очистки кэша
  19. Ничего в ней не закроется. Тег <meta name="robots" content="noindex" ... работает только на странице на которой он установлен. Он ничего не блочит, просто указывает роботам, что эту страницу не нужно индексировать. Также он не запрещает ходить по ссылкам на этой странице и индексировать их содержимое Иногда такая фишка используется, чтобы временно сменить релевантность запроса с категории на товар, но это уже другая тема Не путайте блокировку страниц в роботсе и с помощью тегов
  20. Например, если структура сайта такая главная - категория - подкатегория - товар Если закрыть ноиндексом страницу категории, то закроется только страница категории Подкатегории и товары по прежнему будут индексироваться
  21. Ну все нормально. У вас на всех страницах прописан тег, запрещающий индексацию страниц <meta name="robots" content="noindex" /> Возможно, его забыл убрать разработчик сайта. Если не удается его убрать из админки, то скачивайте весь сайт по ftp на комп и ищите по файлам с помощью программы Notepad++
×
×
  • Create New...