Search the Community

Showing results for tags 'фильтры'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Поисковые системы
    • Поисковая оптимизация
    • Яндекс
    • Google
    • Другие поисковики
    • SMO
    • Каталоги
    • Инструкции и уроки
  • Основные форумы
    • Новости
    • Контекстная реклама
    • Партнерские программы
    • Сервисы, программы и скрипты
    • Дизайн
    • Домены
    • Биржа сайтов
    • Сайтостроительство
    • Хостинг
    • Финансы
    • Разное
    • Конкурсы
  • Работа
    • Правила раздела
    • Дизайн
    • Копирайт/Рерайт
    • SEO
    • SMO/SMM
    • Программирование
    • Разное
  • Другое
    • О нас
    • Black List
    • White List
    • Оффтопик

Skype


Местоположение


Интересы


Ваш сайт


Профиль ID

Found 5 results

  1. Предлагаю вашему вниманию услугу SEO Helper, которая заметно облегчит жизнь всем специалистам, что занимаются продвижением сайтов. SEO Helper выполняет в автоматическом режиме две важные задачи: 1) Ускорение индексации. Ежедневный пинг сайта для ускорения индексации новых страниц и увеличения общего количества страниц в индексе (либо снижение шанса на исключение страниц из поискового индекса). 2) Снижает шанс попасть под фильтры Антиминусинск и Пингвин за счет пинга бэков с некоммерческими анкорами и прямыми ссылками. Это помогает поисковым системам обратить внимание на правильные (с их точки зрения) обратные ссылки и увеличить приоритет (иногда и процент) естественных бэков (если таковые имеются). Акция! Цены снижены до 26 июня! О пинге сайта Мой самописный скрипт использует более 300 онлайн-сервисов пинга и каждый день пингует разное количество случайных страниц указанного сайта на протяжении оплаченного периода. Положительный эффект наблюдается от незначительного до ощутимого - каждая ситуация индивидуальна и чем выше качество сайта, тем больше пользы будет от пинга. Негативных эффектов (баны, фильтры, пессимизации) не может быть по определению. Проблемы с нагрузкой на сайт исключены - пингуется определенное количество страниц в день по специальному диапазону (от 0,01% до 10%) в зависимости от общего количества страниц сайта (чем их больше, тем меньше процент). Существуют 2 режима пинга сайта: PingAll. Автоматический ежедневный пинг всех страниц сайта различными сервисами. Пингуются случайные страницы. Основная цель: поддержание страниц в поисковом индексе, второстепенная - ускорение индексации новых страниц. PingNew. Автоматический ежедневный пинг всех страниц сайта различными сервисами. Приоритет пинга отдаётся страницам, непроиндексированным Яндексом и Гуглом. Основная цель: ускорение индексации новых страниц, второстепенная - поддержание страниц в поисковом индексе. О пинге бэков Обратные ссылки отбираются автоматически с помощью специального сервиса. С помощью скрипта из них автоматом исключаются все с коммерческими анкорами (стоп-слова: цена, купить, аренда и др). Оставшиеся страницы пингуются. Пинг бэков полезен и для сайтов, что уже находятся под Антиминусинском или Пингвином, повышая их шансы выйти из под фильтра. Частота пинга бэков зависит от выбранного тарифа. Тарифы ВАЖНО! Активирую тариф в течение суток с момента оплаты. Действие годового тарифа начинается с момента добавления первого сайта в пинг. К примеру, вы заказали тариф Standart и сразу запустили пинг 4 сайтов. Через 2 месяца решили добавить еще один - пинг для него будет запущен на 10 месяцев (оставшийся общий период), а не на 1 год. ВАЖНО! Никаких отчетов не высылаю (не трачу время на ручную работу) - все онлайн-процессы полностью автоматизированы на нескольких компьютерах. За конечным результатом вы наблюдаете сами и решаете насколько вам полезна и удобна данная услуга. endi-audit@yandex.ru Я не использую иных контактных данных кроме этого емейла и ЛС. Остерегайтесь мошенников! WMID 306906007574 (BL 110+)
  2. Всем привет. Вопрос знатокам. Настраивал сайт ,и по глупому совету, в момент разработки сайта открыл robot.txt. На то время, в нем не были прописаны запреты на фильтры В итоге в ПС Google попало около 4 тис страниц, хотя по факту их 135. Потом разобрался, прописал правильно robot.txt ,ввел в запрет все служебные папки и все фильтры В ручном режиме, через Google Search Console удалил порядка 2,5 тис страниц. Индексированные страницы почистились. Щас прошла новая индексация, и на одном, ненужном каталоге (производители) опять появилось 200 проиндексированных страниц, с фильтрами , которые запрещены в robot.txt Вопрос: Это Гугл игнорирует запреты робот.тхт и индексирует эти страницы или это возможно он их где-то с кеша достает. Т.к. после ручного удаления, в данном каталоге не было ниодной проиндексированной страницы, а щас опять 200 страниц, при этом URL такие, которых я раньше не удалял. (проверял командом site:http://сайт.com.ua/brands/ Откуда они взялись, если в robot.txt они закрыты.
  3. Добрый день. Значит такая история. Сайт задумывался как чистый СДЛ, таким его и делал, честно, вылизывая каждую мелочь. Шаблон платный, во-многом переделаный, под свои нужды. Контент весь уникальный, более 100 статей объемом 5000+. Прошло уже 8 месяцев, все страницы в индексе. С яндекса 8-10 посетителей в сутки, в гугле все запросы на позициях 100+ и трафа само-собой нет. Ссылок куплено около 8 с трастовых, не переспамленых сайтов, средняя цена ссылки 700р. Также пробежался по тематическим форумам, сервисам вопросов и ответов и т.д. Недавно я выяснил, что перед тем, как я зарегистрировал домен, он был свободен 5 месяцев, а до этого, там висел какой-то унылый магазин. По-ходу все наследство в виде фильтров и не доверия пс, досталось мне по наследству. Есть мысль, просто перенести сайт на новый домен, но я добавил все тексты в уникальные тексты яндекса и по-идее, если я его перенесу, весь контент будет расцениваться как копипаст. Ситуация какая-то патовая. Не знаю как поступить, то ли продолжать наполнять развивать, то ли перенести и надеяться на то, что яша не зафильтрует за "фуллкопипаст". Кто, что думает? Нужен совет.
  4. В продолжение одной темы по поводу моего сайта, но теперь это касается непосредственно самого Яндекса. Однажды у меня был один проект, которым я занимался в течении месяца. Он успел попасть в некоторый индекс Яндекса и Гугла, однако, я его позже удалил. Прошел примерно год, и интерес к тематике снова проснулся. Я создал сайт и однажды, при анализе сайта, я заметил, что он под АГС (!!!), без причины. Как я понял, это какие-то санкции, а не АГС, потому что сайт спокойно индексируется в Яндексе, однако большую часть трафика составляют посетители из гугла. Я решил, что со временем эта хрень пройдет, но сайт существует по сей день (7,5 месяцев) насчитывает посещаемость около 500-600 хостов в день, а на нем до сих пор неизвестные мне фильтры. Писал Платону по этому поводу. Он отвечал банальными рекомендациями по улучшению сайта и т.п. Следовал рекомендациям, писал настойчиво, но им вечно что-то не нравится. В общем, фиг достучишься до живого человека - ответы одни и те же. Как эту проблему решить? Как вывести сайт из под АГС, улучшить ранжирование в Яндексе? С этим поисковиком сойти с ума можно.
  5. Перечитал много различных постов на форумах м в блогах, но так и не нашел никаких конкретных ответов. Есть ли фильтры за резкое снятие покупных ссылок? Резкое увеличение ссылочной массы может привести к фильтру, а как насчет резкого уменьшения? И как правильно снимать покупные ссылки, чтобы нанести сайту как можно меньше вреда?