ToneR

О песочнице в Яндекс: это работает?

23 сообщения в этой теме

Здравствуйте! Ребята, подскажите пожалуйста. Я не раз сталкивался с песочницей в Яндексе(если кто не знает, это когда новый сайт с новым доменом очень долго не дает трафик), обычно у меня появляется трафик только через год, ходя бывают и случаи выхода из песочницы через 3 месяца. И следовательно у меня появился вопрос:

Пробовал ли кто покупать сразу несколько доменов, вешать заглушку (несколько текстов по тематике) и забивать на год, а затем развивать сайты, как быстро в таком случае дают трафик новые статьи?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не получится такой наивный фокус. Алгоритм Яндекса учитывает ПФ, которые вы собираете в течение 6-12 месяцев. По сути, официально термин песочница не существует. Из моих наблюдений поисквики собирают данные (ПФ) и уже выкатывает их более стабильно спустя N времени.

ToneR понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
2 часа назад, webalex сказал:

Не получится такой наивный фокус. Алгоритм Яндекса учитывает ПФ, которые вы собираете в течение 6-12 месяцев. По сути, официально термин песочница не существует. Из моих наблюдений поисквики собирают данные (ПФ) и уже выкатывает их более стабильно спустя N времени.

В таком случае получается, если с самого начала начать крутить пф, то сайт быстро выйдет из песочницы?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
16 минут назад, ToneR сказал:

В таком случае получается, если с самого начала начать крутить пф, то сайт быстро выйдет из песочницы?

Вы действительно считаете, что люди которые разработали алгоритм ранжирования настолько тупые?)
Учитывается и возраст домена и пф и ссылки и дизайн и сео структура. Если будете накручивать просто в бак улетите и все.
Если делать по уму то перед тем как запустить новый сайт и показать его поисковикам у вас заранее должно быть все готово, потому что однорукий бандит будет играть важную роль в начальной стадии индексации и учитывать ошибки. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
2 минуты назад, webalex сказал:

Вы действительно считаете, что люди которые разработали алгоритм ранжирования настолько тупые?)
Учитывается и возраст домена и пф и ссылки и дизайн и сео структура. Если будете накручивать просто в бак улетите и все.
Если делать по уму то перед тем как запустить новый сайт и показать его поисковикам у вас заранее должно быть все готово, потому что однорукий бандит будет играть важную роль в начальной стадии индексации и учитывать ошибки. 

Действительно, я так и считаю! В любом случае, спасибо за отклик, по крайней мере появилось несколько теорий, которые стоило бы проверить)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
5 часов назад, ToneR сказал:

Пробовал ли кто покупать сразу несколько доменов, вешать заглушку (несколько текстов по тематике) и забивать на год, а затем развивать сайты, как быстро в таком случае дают трафик новые статьи?

Ерунда, да и песочница не для 100% сайтов существует. Если сайт качественный (востребованный), то даже если он новый, никакой песочницы не будет...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Через 3 месяца сайт получил траст в Яндексе и быстробот, который практически стабильно дает траффик. Сейчас в яндексе сайт реально за полгода можно сделать мега-посещаемым, а Гугл... ладно, тут о нем лучше не говорить.

Песочницы нет, просто делайте нормальный сайт и Яндекс своими тестами сам будет его в ТОП вставлять. Если он будет УГ - то из топа быстро вылетит. Если все будет отлично на сайте - то там и останется. Хоть по ВЧ, хоть по СЧ. Говорю не о коммерческой сфере, а информационных сайтах.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Пожалуй соглашусь, что в большинстве случаев все зависит от качества сайта и его контента

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
1 час назад, Lucky сказал:

Пожалуй соглашусь, что в большинстве случаев все зависит от качества сайта и его контента

3 коммерческих сайта толкал с нуля- качественно сделанные, справочники, ссылки, крауд, коммерческие данные на сайте, качественные посадочные и инфо страницы.... все 3 сайта стартовали движение в органике после 6! месяцев застоя...

имхо песочница есть для всех, но для кого то месяц, для кого то 6....

ToneR понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
14 минуты назад, SEO Thresh сказал:

имхо песочница есть для всех, но для кого то месяц, для кого то 6....

Создал магазин и вяло его наполнял пару месяцев - 5-20 уников в день ( 5-9 месяцев ).
Начал более активно наполнять сайт, делая сео ошибки(только вливался в тему). - 30-40 уников в день (около года)
Изучил все моменты, исправил ошибки, понял как все работает, отработал структуру и т.д.(но еще есть что дорабатывать) - 150+ уников в сутки ( последний год ).

В следующем году, как дойдут руки - прикручу контекст. Трафик заметно вырастит. Понимание процессов есть, но не всех. Активно изучаю вопросы :)
Коммерческая тематика. Коммерческий проект.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

3, 6, 12 месяцев? Это жесть. Как вы сайты делаете? В коммерции да, могут быть заморочки с песочницей, но не на 3 месяца. На статейниках давно не встречал. В любой тематике, в любом направлении можно собрать НЧ запросы, которые уже через несколько апов дадут трафик. Личный рекорд до первого посетителя с поиска на статейнике был вроде 5 или 10 дней, могу даже скрины скинуть, если кому интересно. Хотя тот сайт я благополучно потом запорол. Важно новый сайт отдавать яндексу уже наполненным и оптимизированным. Для оптимизации можно ориентироваться на ошибки бесплатноq версии web site auditor. Лучше по минимум использовать роботс для закрытия страниц. Если сайт на wp, то важно все оптимизировать руками. В плагины для оптимизации вообще не верю. Картинки все нужно пожать и прописать альты. Не должно быть никаких закрытых в роботсе пагинаций и фильтров. В коде не должно быть мусора, который нигде не используется. Как-то так

StayinLight понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
33 минуты назад, petroff сказал:

3, 6, 12 месяцев? Это жесть. Как вы сайты делаете? В коммерции да, могут быть заморочки с песочницей, но не на 3 месяца. На статейниках давно не встречал. В любой тематике, в любом направлении можно собрать НЧ запросы, которые уже через несколько апов дадут трафик. Личный рекорд до первого посетителя с поиска на статейнике был вроде 5 или 10 дней, могу даже скрины скинуть, если кому интересно. Хотя тот сайт я благополучно потом запорол. Важно новый сайт отдавать яндексу уже наполненным и оптимизированным. Для оптимизации можно ориентироваться на ошибки бесплатноq версии web site auditor. Лучше по минимум использовать роботс для закрытия страниц. Если сайт на wp, то важно все оптимизировать руками. В плагины для оптимизации вообще не верю. Картинки все нужно пожать и прописать альты. Не должно быть никаких закрытых в роботсе пагинаций и фильтров. В коде не должно быть мусора, который нигде не используется. Как-то так

ну мы ща про коммерцию говорим... статейники - мутаген и профит...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
2 часа назад, petroff сказал:

3, 6, 12 месяцев? Это жесть. Как вы сайты делаете? В коммерции да, могут быть заморочки с песочницей, но не на 3 месяца. На статейниках давно не встречал. В любой тематике, в любом направлении можно собрать НЧ запросы, которые уже через несколько апов дадут трафик. Личный рекорд до первого посетителя с поиска на статейнике был вроде 5 или 10 дней, могу даже скрины скинуть, если кому интересно.

Значит что-то я делаю неправильно, раз у вас вообще песочниц нет. Не коммерция, два сайта: тематика софт, статейник по банковской тематике - везде песочница. НЧ запросы, это конечно может помочь дать трафик на сайт давольно быстро, но я слишком уж жаден для того чтобы тратить деньги на написание статей заточенных под НЧ. 

Имеем 2 ключа, один вч, другой нч.

скачать skype - ВЧ (уровень конкуренции по мутагену более 25)

скачать skype с официального сайта - НЧ (уровень конкуренции по мутагену 4)

И как в таком случае заточить страницу под нч ключ? Можно в тайтле употребить полное вхождение нч ключа, в дескрипшине, в н1, в тексте 1 раз (и по сути этого должно хватить для нч и нк ключа), только вот есть одно но, эта страница не даст трафик, знаете почему? Потому что в ней содержится вч ключ - скачать skype. Я пробовал делать сайт из таких нч, только что-то как песочница была так она и есть, сайт не дал трафика. Мой опыт показывает, что песочница есть, и я не знаю как ее избежать

1 час назад, SEO Thresh сказал:

Не должно быть никаких закрытых в роботсе пагинаций и фильтров.

Почему? 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
6 минут назад, ToneR сказал:

Значит что-то я делаю неправильно, раз у вас вообще песочниц нет. Не коммерция, два сайта: тематика софт, статейник по банковской тематике - везде песочница. НЧ запросы, это конечно может помочь дать трафик на сайт давольно быстро, но я слишком уж жаден для того чтобы тратить деньги на написание статей заточенных под НЧ. 

Имеем 2 ключа, один вч, другой нч.

скачать skype - ВЧ (уровень конкуренции по мутагену более 25)

скачать skype с официального сайта - НЧ (уровень конкуренции по мутагену 4)

И как в таком случае заточить страницу под нч ключ? Можно в тайтле употребить полное вхождение нч ключа, в дескрипшине, в н1, в тексте 1 раз (и по сути этого должно хватить для нч и нк ключа), только вот есть одно но, эта страница не даст трафик, знаете почему? Потому что в ней содержится вч ключ - скачать skype. Я пробовал делать сайт из таких нч, только что-то как песочница была так она и есть, сайт не дал трафика. Мой опыт показывает, что песочница есть, и я не знаю как ее избежать

Почему? 

Не нужно всегда верить мутагену, тем более я про показатель "конкуренция", там такое увидишь, если поэкспериментируешь с запросами...

скачать skype с официального сайта - по запросу уже ТОП 3 это сам официальный сайт Скайпа... уже меньше шансов выйти в ТОП, далее там крупные софт сайты... 

ToneR понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
2 часа назад, petroff сказал:

Не должно быть никаких закрытых в роботсе пагинаций и фильтров

Только после того, как пагинацию закрыли мы с Anyue - дело пошло на лад.
Вышел из положения, подключив ленивую загрузку.
Дублей было - ппц.

Anyue понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Только что, A1exandr сказал:

Только после того, как пагинацию закрыли мы с Anyue - дело пошло на лад.
Вышел из положения, подключив ленивую загрузку.
Дублей было - ппц.

Да, было такое. Много дублей и мусор в поиске (страницы пагинаций), еще вебмастер видит это как дубли тайтлов, дескрипшнов = страниц то есть. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
8 минут назад, Anyue сказал:

Не нужно всегда верить мутагену, тем более я про показатель "конкуренция", там такое увидишь, если поэкспериментируешь с запросами...

скачать skype с официального сайта - по запросу уже ТОП 3 это сам официальный сайт Скайпа... уже меньше шансов выйти в ТОП, далее там крупные софт сайты... 

Я и не верю, вообще не чекаю конкуренцию. Запрос просто в качестве примера показал. Старые сайты есть везде, и они двигаются вниз) 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
20 минут назад, ToneR сказал:

Почему?

 

11 минуту назад, A1exandr сказал:

Только после того, как пагинацию закрыли мы с Anyue - дело пошло на лад.
Вышел из положения, подключив ленивую загрузку.
Дублей было - ппц.

Боты поисковиков должны легко загружать страницы сайта и понимать его структуру. Закрывая пагинацию в роботсе вы по сути ломаете структуру сайта для поисковых ботов. Ключевое было не не закрывать вообще, а не закрывать именно в роботсе. В зависимости от того как сделан сайт, при закрытии страниц пагинации в robots.txt, поисковики могут плохо индексировать страницы, ссылки на которые есть на страницах типа page/2. + геморроя добавляет еще то, что на таких страницах увеличивается уровень вложенности и это дополнительный минус для скорости индексации. Ну может карта сайта чем-то и поможет. Также может ломаться структура хлебных крошек, но это тоже зависит от того как сделан сайт. Лучше в noindex закрыть и забыть про эти страницы

ToneR понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
9 минут назад, petroff сказал:

 

Боты поисковиков должны легко загружать страницы сайта и понимать его структуру. Закрывая пагинацию в роботсе вы по сути ломаете структуру сайта для поисковых ботов. Ключевое было не не закрывать вообще, а не закрывать именно в роботсе. В зависимости от того как сделан сайт, при закрытии страниц пагинации в robots.txt, поисковики могут плохо индексировать страницы, ссылки на которые есть на страницах типа page/2. + геморроя добавляет еще то, что на таких страницах увеличивается уровень вложенности и это дополнительный минус для скорости индексации. Ну может карта сайта чем-то и поможет. Также может ломаться структура хлебных крошек, но это тоже зависит от того как сделан сайт. Лучше в noindex закрыть и забыть про эти страницы

Ломается структура при закрытии страниц пагинаций, при условии, что у тебя на сайте 100500+ статей. А у нас с товарищем A1exandr был интернет магазин, где необязательно переходить по страницам этим и смотреть товар, да и товара в тот момент было мало и мы еще разбили по мелким категориям все главные категории, то есть на категорию максимум приходилось штук 50 товаров максимум, это прям максимум. Вот и убрали пагинацию.

ToneR и A1exandr понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
46 минут назад, Anyue сказал:

был интернет магазин

Он и сейчас есть! :)
Только работы по нему частично прекращены из-за сезонной нагрузки, кстати, обороты значительно выросли!
Поднимаю производство, с последующим брендированием как продукции, так и самого магазина(его направления).

47 минут назад, Anyue сказал:

где необязательно переходить по страницам этим и смотреть товар

Ленивая загрузка действительно повысила ПФ! После внедрения, на опросе в соц.сетях подписчики позитивно восприняли данный факт.

49 минут назад, Anyue сказал:

да и товара в тот момент было мало и мы еще разбили по мелким категориям все главные категории, то есть на категорию максимум приходилось штук 50 товаров максимум

Ассортиментная матрица обуславливает небольшое количество на категорию/подкатегорию. Большой ассортимент однотипного продукта не имеет смысла продвигать, это контрпродуктивно с точки зрения формирования закупок(в этом я шарю, так как это основной вид моей работы).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
1 минуту назад, A1exandr сказал:

Он и сейчас есть! :)
Только работы по нему частично прекращены из-за сезонной нагрузки, кстати, обороты значительно выросли!
Поднимаю производство, с последующим брендированием как продукции, так и самого магазина(его направления).

Ленивая загрузка действительно повысила ПФ! После внедрения, на опросе в соц.сетях подписчики позитивно восприняли данный факт.

Ассортиментная матрица обуславливает небольшое количество на категорию/подкатегорию. Большой ассортимент однотипного продукта не имеет смысла продвигать, это контрпродуктивно с точки зрения формирования закупок(в этом я шарю, так как это основной вид моей работы).

О чем и я)

Ну это хорошо. а то что то в ВК начал мне не отвечать, а ну ка :D

A1exandr понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
54 минуты назад, Anyue сказал:

Ломается структура при закрытии страниц пагинаций, при условии, что у тебя на сайте 100500+ статей. А у нас с товарищем A1exandr был интернет магазин, где необязательно переходить по страницам этим и смотреть товар, да и товара в тот момент было мало и мы еще разбили по мелким категориям все главные категории, то есть на категорию максимум приходилось штук 50 товаров максимум, это прям максимум. Вот и убрали пагинацию.

Мне как бы все равно, что у вас с товарищем. В контексте разговора про длительность песочницы в яндексе, сайт должен быть плюшевым во всех отношениях, в т.ч. не должен иметь препятствий для загрузки страниц, на которых есть ссылки на другие страницы

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
1 час назад, petroff сказал:

Закрывая пагинацию в роботсе вы по сути ломаете структуру сайта для поисковых ботов.

Это ваши слова, не мои. Я написал свое мнение вот для этого предложения.

То что, я бы закрыл и делаю, и буду делать этого, если это ИМ или коммерческий сайт. Для инфо-сайтов, конечно, не стал бы, чтобы как Вы и говорили, чтобы ботам легче было добраться до любой страницы в несколько кликов.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!


Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.


Войти сейчас

  • Сейчас на странице   0 пользователей

    Нет пользователей, просматривающих эту страницу