Sign in to follow this  
Followers 0
seoinfodom

Стоит ли устанавливать граббер (парсер) новостей?

10 posts in this topic

Всем доброго времени суток!

 

Интересует мнение людей, которые парсят новости для своего сайта (без фанатизма).

 

Меня не интересует 100% парсинг всех новостей, только одна специально отведенная категория "новости партнёров" для сбора трафа с пс и эксперимента.

 

Сам веду сайт с рукописным контентом (присланный, свой) + рерайт, но возникла идея создать категорию с новостями похожей тематики и парсить туда новости с ссылкой на источник для сбора дополнительных посетителей с поисковых систем.

 

Подскажите пожалуйста, стоит ли начинать (рисковать) или лучше своими силами пробиваться?

 

Прошу строго не судить, впервые сталкиваюсь с этой темой ;)

Share this post


Link to post
Share on other sites

Если это будет "умный парсинг" то есть не просто парсинг а с добавлением своего генерируемого текста или с дополнительной обработкой текста тогда толчина будет

Share this post


Link to post
Share on other sites

Если это будет "умный парсинг" то есть не просто парсинг а с добавлением своего генерируемого текста или с дополнительной обработкой текста тогда толчина будет

т.е. принимать участие по любому придётся, автоматизировать этот процесс не получится?

 

и что значит добавлением своего генерируемого текста или с дополнительной обработкой?

 

Прошу строго не судить, впервые сталкиваюсь с этой темой  ;)

Share this post


Link to post
Share on other sites

Парсить новости и при этом принимать участие в редактировании и т.д  - крайне нецелесообразно, ваше время намного дороже. Просто парсить на автопилоте, тоже не вариант - страниц прибавится миллионы, а трафика нет. Есть смысл поступить следующим образом - отобрать сайты доноры, чей траст ниже вашего, при условии, что ваш сайт вообще имеет траст, и при этом у донора новости свои. Тогда вас ждет очень много трафика.

Share this post


Link to post
Share on other sites

Можно парсить, но закрыть от индексации. Так, для кучи на сайте, чтоб посетителю было что почитать.

Share this post


Link to post
Share on other sites

т.е. принимать участие по любому придётся, автоматизировать этот процесс не получится?

 

и что значит добавлением своего генерируемого текста или с дополнительной обработкой?

 

Прошу строго не судить, впервые сталкиваюсь с этой темой  ;)

Ну почему же, можно и автоматизировать данный процесс, все зависит от ваших знаний и возможностей. Например как вариант в конце текста дописывать абзац генерируемого текста, можно его сразу под спойлер заггнать что бы глаз не мозолил. Таким образом у вас появиться какая-никакая уникальность

Share this post


Link to post
Share on other sites

Не не нужно, я так делал, потом отказали в приеме в гугл новости из за раннего копи паста, ну и траф начал проседать, проще покупать новости, стоят в среднем от 40 до 150р, 3 новости в день за 100-120 можно брать, в выходные по 1-2 это норм, зато и траф валит и быстробот сидит и уникальность сто процентов

Share this post


Link to post
Share on other sites

Нет! Лучше не подключать парсер новостей, заблокируют трафик поисковые системы из-за потери уникальности сайта и в использовании чужого контента

Share this post


Link to post
Share on other sites

Нет! Лучше не подключать парсер новостей, заблокируют трафик поисковые системы из-за потери уникальности сайта и в использовании чужого контента

Здрасьте. Америку что ли открыли тут?

Share this post


Link to post
Share on other sites

Я уже на парсил в свое время до АГС.... Толку от спарсенных новостей нет...Завалите сайт, сразу может быть даже прирост во всем, но потом в минус и с вполне возможен АГС...!!!

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!


Register a new account

Sign in

Already have an account? Sign in here.


Sign In Now
Sign in to follow this  
Followers 0

  • Recently Browsing   0 members

    No registered users viewing this page.