disa66 28 Posted April 14, 2015 Report Share Posted April 14, 2015 Всем привет, прошу совета и помощи. Запускается крупный проект (рассчитывается на 1 500 000 страниц). Нужно собрать семантическое ядро. Понятно, что никто wordstat, direct, поисковые подсказки...не отменял. Но хочется узнать кто-бы как справлялся с такой задачей... По каждому запросу нужно получить: частотность, конкурентность, сезонность. Есть какие-либо методы работы с таким большим ядром запросов?? На что я должен обратить внимание... Спрашиваю советов у людей, кто работал с такими объемами!)) Link to post Share on other sites
VIP netron 142 Posted April 14, 2015 VIP Report Share Posted April 14, 2015 prodvigator - одно из лучших решений для больших объёмов работы. (Моё личное мнение) Legran 1 Link to post Share on other sites
VIP seo-net 2346 Posted April 14, 2015 VIP Report Share Posted April 14, 2015 закажите услугу вам соберут все что вы хотите, не бесплатно конечно же) Link to post Share on other sites
disa66 28 Posted April 14, 2015 Author Report Share Posted April 14, 2015 Ну, понятно. Соль в том, что это моя задача. У меня есть представление, как ее решать. Но опыта нет. Поэтому и хочу спросить, кто как работал с большим СЯ...Лично у меня есть удачная модель сбора и продвижения для 9000-10000 запросов. Хочу масштабировать ее на несколько миллионов... Но, вдруг, что посоветуете. Готовые инструменты, методики работы, или какой "велосипед" пришлось изобретать для такой работы... Link to post Share on other sites
cmscripts 43 Posted April 14, 2015 Report Share Posted April 14, 2015 Не плохой урок по составлению СЯ _youtube.com/watch?v=VSf4JlhHPJE Legran and disa66 2 Link to post Share on other sites
disa66 28 Posted April 14, 2015 Author Report Share Posted April 14, 2015 Не плохой урок по составлению СЯ _youtube.com/watch?v=VSf4JlhHPJE Хороший урок) Попадал на него несколько месяцев назад Link to post Share on other sites
goldDust 39 Posted May 11, 2015 Report Share Posted May 11, 2015 Всем привет, прошу совета и помощи. Запускается крупный проект (рассчитывается на 1 500 000 страниц). Нужно собрать семантическое ядро. Понятно, что никто wordstat, direct, поисковые подсказки...не отменял. Но хочется узнать кто-бы как справлялся с такой задачей... По каждому запросу нужно получить: частотность, конкурентность, сезонность. Есть какие-либо методы работы с таким большим ядром запросов?? На что я должен обратить внимание... Спрашиваю советов у людей, кто работал с такими объемами!)) Вот эта статья скорее на будущее - о том, как расширить ядро с помощью данных из Яндекс метрики. Legran 1 Link to post Share on other sites
potatocell 0 Posted May 16, 2015 Report Share Posted May 16, 2015 disa66, вы пишете что опыта нет, а если его нет то на первое время обратиться к тем у кого он есть, потом уже когда опыт придёт сами начнёте составлять, а пока лучше доверить работу профи. Я для своего интернет магазина заказывал оптимизацию в http://seoanalytics.pro/ru/service/, в итоге продажи выросли почти в 2 раза. Самому делать ядро без знаний и не имея необходимых программ очень сложно, не говоря уже о том что основная масса прог платные. А если нет времени и нужно быстро сделать, то тем более. Если хотите сами понять что к чему то литературы полно в сети, например книга " Семантическое ядро: 6 адовых ошибок". Link to post Share on other sites
egmalt 35 Posted May 16, 2015 Report Share Posted May 16, 2015 ТС не ведись на сообщения, которые говорят, что нужно нанять профи! Если ты сам уже раньше собирал ключи и у тебя есть кейколлектор (или хотя бы магадан), то тебе нужно будет очень долго искать какого-то суперспециалиста, который уже собирал семантику под миллионные запросы, сделает это в разы лучше тебя и при этом еще берет частные заказы меньше 300$. Сам соберешь один раз - ошибешься, сделаешь еще раз, зато потом значительно улучшишь свой скилл и будешь понимать всю структуру своего проекта от А до Я. Link to post Share on other sites
Legran 106 Posted May 16, 2015 Report Share Posted May 16, 2015 ТС не ведись на сообщения, которые говорят, что нужно нанять профи! Если ты сам уже раньше собирал ключи и у тебя есть кейколлектор (или хотя бы магадан), то тебе нужно будет очень долго искать какого-то суперспециалиста, который уже собирал семантику под миллионные запросы, сделает это в разы лучше тебя и при этом еще берет частные заказы меньше 300$. Сам соберешь один раз - ошибешься, сделаешь еще раз, зато потом значительно улучшишь свой скилл и будешь понимать всю структуру своего проекта от А до Я. Поддерживаю вас. И еще хочу добавить если есть у вас плита и мука, то не покупайте хлеб, делаите его сами... Link to post Share on other sites
Yellow73 94 Posted May 16, 2015 Report Share Posted May 16, 2015 Я все таки немного другого мнения. Если цена ошибки очень высока то лучше обратиться к профессионалам, а уже потом на другом сайте где ошибиться не страшно тренироваться. Link to post Share on other sites
VIP serjin 1061 Posted May 16, 2015 VIP Report Share Posted May 16, 2015 ТС не ведись на сообщения, которые говорят, что нужно нанять профи! Если ты сам уже раньше собирал ключи и у тебя есть кейколлектор (или хотя бы магадан), то тебе нужно будет очень долго искать какого-то суперспециалиста, который уже собирал семантику под миллионные запросы, сделает это в разы лучше тебя и при этом еще берет частные заказы меньше 300$. Сам соберешь один раз - ошибешься, сделаешь еще раз, зато потом значительно улучшишь свой скилл и будешь понимать всю структуру своего проекта от А до Я. Вы сами то хоть представление имеете о чем говорите? какой кейколектор? темболее магадан. Вы пробывали в колектор загрузить 100 000 запросов? Скорее всего нет ,так вот он дохнет уже на таких количествах не говоря о милионнике. Если он принять их не может что уж там говорить об обработке . Я не спорю софт хороший сам пользуюсь не первый год , но не для таких обьемов работы ,10 000-30 00 он обрабатывает но не больше. Если вы говорите что можете (уж не говорю про ядро) просто собрать запросы в таком обьеме сами без участия профи ,тогда мож софт подскажите ? Правильно не скажите! потому что кроме Пастухова такое количество выборки никто не обрабатывает . Так что мы получаем в итоге ? Да да делай сам бла бла... 600$ базы Пастухова , нет опыта куча косяков, ошибок и вообще глаза разбегутся от такой масы запросов уж не говоря что все это нужно кластеризовать упаковать в удобоваримый вид чтоб оно могло называтся семантикой, а не набором строк в 50 гиговом файле тхт. Так что лучше , ну и дешевле цена как известно имеет значение)) Если для простого сайта семантика мелкая ,вполне можно и самому обойтись(при наличии понятия дела) используя сервисы или програмы которые доступны широким массам. Но даже для обычного сайта у которого запросов больше сотни уже нужно иметь тотже кейколектор и опыт. Для таких случаев где семантика от 50к нужен професиональный и софт и подход. Не заблуждайтесь и других не вводите в заблуждение! шары не бывает в маштабной работе . Не говоря уже о времени и способе раелизации этого всего, при посадке ядра на сайте. xeek 1 Link to post Share on other sites
Recommended Posts