Jump to content

ZaraMc

Members
  • Content Count

    9
  • Joined

  • Last visited

Posts posted by ZaraMc

  1. Здравствуйте.

    С концами перешел в метрику из-за частого падения LI, но там не очень удобно.
    Как в метрике сделать подобное http://prntscr.com/bpvtah? Чтобы зеленое было за сегодня, а серой за вчера? Очень нужная функция. 

  2. Главное пинг идет, если через командную строку смотреть. А зайти на сайт не могу. 

     

    Microsoft Windows [Version 10.0.10240]
    © Корпорация Майкрософт (Microsoft Corporation), 2015 г. Все права защищены.
     
    C:\Users\ZaraMc>ping www.liveinternet.ru
     
    Обмен пакетами с www.liveinternet.ru [88.212.196.114] с 32 байтами данных:
    Ответ от 88.212.196.114: число байт=32 время=39мс TTL=54
    Ответ от 88.212.196.114: число байт=32 время=38мс TTL=54
    Ответ от 88.212.196.114: число байт=32 время=38мс TTL=54
    Ответ от 88.212.196.114: число байт=32 время=38мс TTL=54
     
    Статистика Ping для 88.212.196.114:
        Пакетов: отправлено = 4, получено = 4, потеряно = 0
        (0% потерь)
    Приблизительное время приема-передачи в мс:
        Минимальное = 38мсек, Максимальное = 39 мсек, Среднее = 38 мсек
  3. Вам же люди дали правильный ответ ---  Сайтмап и хост только один раз в самом конце роботса

    Sitemap: http://site.ru/sitemap.xml

    Если вы считаете, что это не так, то зачем разводите эту дискусиию, да еще и с упоминанием того, что на серче этого никто не знает. бред. Это знают все, кто хотя бы погуглил этот запрос. Накручиваем посты? Тупо.

     

    В смысле "накручиваем посты"? Тут деньги чтоли платят ,если у тебя много постов?

     

    У меня с этим роботс выдает ошибка на css и картинки.... http://prntscr.com/7z6532уже третий день с этим роботс мучаюсь из-за письмо от гугл

     

     

  4. Всё таки нет.... Надо к каждому юзер агенту прописывать....

     

    Я только что проверил верхний роботс, там не закрывает файлы от индексации.

     

    Потом сделал так:

    User-agent: *
    Disallow: /engine/
    Sitemap: http://site.ru/sitemap.xml
    
    User-agent: Googlebot
    Disallow: /engine/
    Allow: /engine/*.js
    Allow: /templates/*.css
    
    User-agent: Googlebot-Image
    Allow: /uploads/*.jpg
    Allow: /uploads/*.png
    
    User-agent: YandexBot
    Host: site.ru

    и скрыло engine/download.php .

    Кстати, стили разрешил, но в гугл.вебмастере всё еще выходит ошибка О_о

  5. Здравствуйте.

     

    На серче нашел нужный роботс, но там тоже не знают как правильно его оформить.

    User-agent: *
    Disallow: /engine/
    Sitemap: http://site.ru/sitemap.xml
    
    User-agent: Googlebot
    Allow: /engine/*.js
    Allow: /templates/*.css
    
    User-agent: Googlebot-Image
    Allow: /uploads/*.jpg
    Allow: /uploads/*.png
    
    User-agent: YandexBot
    Host: site.ru

    Сайтмап достаточно разместить для всех роботов? Не нужно везде прописывать? 

     

    Если Disallow: /engine/ для всех роботов, то значит и для Яндекса тоже будет закрыто? 

    По сути, Disallow: /engine/ должно у всех быть закрыто. 

    Только гуглу нужен доступ к некоторым файлам и им я открыл доступ.

    Яндексу нужен хост - ему указал. 

  6. Здравствуйте! 

     

    При проверки через сайт pr-cy.ru/a/site.com вышло такое:

    post-11119-0-42071300-1418806093_thumb.png

     

    Самое ужасное, что теперь сайт не отображается какие именно!! Зачем так сделали, непонятно. Раньше сервис был самым лучшим, а сейчас осталось только название. 

     

    Смотрел тут http://pr-cy.ru/link_extractor/ , показывает 0 внешних ссылок, это как так? Очень давно хотел спросить, времени не было. 

×
×
  • Create New...