mazhara1986

Members
  • Content count

    21
  • Joined

  • Last visited


Reputation Activity

  1. mazhara1986 liked a post in a topic by adea74 in Как продвигать сайт в 2015 году?   
    Стратегии SEO для «Яндекса» и Google в 2015 году

    В течение 2014 года Google и «Яндекс» неустанно меняли свои алгоритмы. Это нередко приводило к панике среди SEO-специалистов, но подыгрывало последователям органического SEO. Ведь все изменения, вводимые поисковыми системами, были направлены на уменьшение видимости страниц низкого качества и без добавленной ценности.
    Так остались ли ещё методики продвижения сайтов, не приводящие к «фильтрации»? Какие стратегии оптимизации следует выбирать SEO-специалистам в 2015 году?

    Что делать для успешного продвижения в Google?

    1. Расширять семантическое ядро с учётом алгоритма «Колибри».

    Алгоритм Hummingbird («Колибри») был запущен 20 августа 2013 года, но до сих пор многие SEO-специалисты не принимают его во внимание. «Колибри» кардинально изменил способ поисковой системы Google анализировать запросы: вместо сопоставления запросу отдельных ключевых слов на странице поисковик ищет соответствие общего смысла.
    Ключевые слова по-прежнему важны, однако следует применять бóльшее их разнообразие, включая синонимы, поисковые подсказки и близкие по смыслу слова и словосочетания. Например, вместе с «ключом» «цветы» использовать фразы «букет ко дню святого Валентина», «доставка цветов в день заказа» или «цветочная композиция». Если возможно, т.е. если действительно есть что сказать по этому поводу, то вставлять и диалоговые фразы типа «где купить цветы дёшево?»
    Все подобранные «ключи» необходимо разделить на три группы: информационные, навигационные и транзакционные.
    Информационные запросы (например, «как составить букет?») задают, когда ищут образовательный контент. Поэтому на сайте их следует использовать при создании информационных статей с ненавязчивыми ссылками на продукты или услуги.
    Навигационные запросы (например, «магазин ромашка») используют для поиска бренда, конкретного продукта или веб-ресурса, их рациональнее применять на страницах «Главная» и «О компании», например.
    Транзакционные же явно указывают на намерение совершить некое действие: заказать, купить, скачать. В этом случае используют слова «цена», «купить», «доставка», «аренда», «купон», «скидка» и пр. Подходящие места для них – странички товаров/услуг, акций и т.п.
    В любом случае «ключи» не должны напоминать «коровью лепёшку» - несклоняемую и бессмысленную вставку в ткань повествования. Текст должен читаться плавно и естественно, ведь его воспринимает и оценивает Человек, поисковик же работает с «широким» семантическим ядром, а не повторённой 5 раз в «магических» формах и положениях фразой.

    2. Совершенствовать структуру URL сайта.

    Сайты с упорядоченной структурой адресов обычно ранжируются лучше, чем ресурсы с «грязной» структурой и запутанной организацией контента. URL-адреса и ссылки являются строительными блоками веб-сайта, а потому им следует уделять должное внимание.
    Динамические адреса типа site.ru/page?id=13579&color=4&size=2&session=754839 слишком длинные и не несут никакого смысла. Показатель кликабельности (CTR, click-through rate) таких ссылок в результатах поиска обычно ниже, поэтому стоит использовать статические человекупонятные урлы (ЧПУ).
    Множество «битых» ссылок, ведущих на страницу 404 ошибки, также может повредить позициям сайта при ранжировании. Необходимо время от времени проверять сайт на предмет возникновения неработающих ссылок, используя специальные программы, например,Screaming Frog.
    Ранее считалось, что большое количество исходящих ссылок со страницы негативно сказывается на её ранжировании в поиске, хотя это утверждение некоторые оспаривали. Сейчас Google уже отказался от регламентированного (не более 100 штук) количества ссылок с одной страницы, но настаивает на том, чтобы соответствовали тематике страницы и тем запросам, по которым люди на неё приходят.

    3. Фокусироваться только на качественных, потом-кровью заработанных обратных ссылках, пусть их будет и немного.

    За определение качества ссылочной массы и естественности анкор-листа в Google отвечаеталгоритм «Пингвин», последнее обновление которого произошло 21 октября 2014 года (Google Penguin 3.0). Разработчики Google недвусмысленно нам говорят, что гораздо лучше иметь многочисленные ссылки с нескольких авторитетных нишевых ресурсов, чем сотни единичных ссылок со второсортных сайтов.
    Для естественного линкбилдинга можно использовать следующие подходы:
    Получение редакционных ссылок. Это золотой стандарт для ссылок, появляющихся как упоминания Вашего сайта в обзорах средств массовой информации или в так называемых статьях лидеров мнений, написанных Вами для сторонних ресурсов. Чтобы такие статьи были приняты, необходимо понять аудиторию сайта, найти тему, которая ей интересна, написать не слишком (и даже совсем не-) рекламную статью, а когда она будет опубликована - поделиться ссылкой на неё в соцсетях.
    Социтирование. Каждый раз, когда Ваш бренд или ссылка на сайт появляется вместе с конкурентами или подобными веб-ресурсами, Google понимает, что Ваша фирма и эти компании связаны. А если конкуренты уже имеют авторитет в данной нише бизнеса, то и Ваш сайт будет постепенно приобретать в глазах поисковика такой же авторитет. Один из способов добиться социтирования – найти на профильных ресурсах списки типа «ТОП-10/20/100 компаний» или «Лучшие продукты 2014 года». Если упоминания о Вашем бизнесе там нет, обратитесь к издателю и попросите добавить упоминание. Заметим, что здесь необходимо приложить немало усилий, чтобы предоставить издателю весомые обоснования такого жеста.
    Использование чужих «битых» ссылок. Это кропотливая, но очень полезная тактика, в которой Вы охотитесь за неработающими ссылками на авторитетных профильных сайтах и предлагаете владельцам ресурсов заменить эти ссылки на Ваши. Перед этим не помешает изучить ссылочные профили процветающих конкурентов (используя, например, сервисы Ahrefs илиLinkpad), чтобы составить список ресурсов, связанных с ними. После чего следует проверить ссылки на этих ресурсах и отыскать подходящие Вам неработающие.

    4. Рассмотреть возможность использования безопасного протокола шифрования (HTTPS).

    6 августа 2014 года было произведено обновление HTTPS/SSL, в результате чего использование безопасного протокола HTTPS на сайте стало положительным сигналом при ранжирования в Google.
    Для транзакционных сайтов типа интернет-магазинов HTTPS давно уже стал стандартом. И это, на самом деле, необходимо любому сайту, который собирает личную информацию: логины и пароли пользователей, номера счетов и банковских карт. Использование безопасного протокола шифрования должно помочь повысить доверие к сайту не только поисковой системы, но и пользователей.
    Другое дело, что переход на HTTPS достаточно непрост. Для того чтобы защитить переданные данные, используется технология SSL. Необходимо купить сертификат SSL для сайта и установить его на сервере. А затем настроить перенаправления со всех адресов HTTP на HTTPS и отредактировать все абсолютные внутренние ссылки либо заменить их на относительные.
    Принимая во внимание все эти трудности и то, что пока HTTPS – довольно слабый сигнал (по словам сотрудников Google), для небольших коммерческих сайтов и информационных порталов переход на безопасный протокол шифрования не стоит считать приоритетным в ближайшее время.

    Как не потерять благосклонного отношения «Яндекса»?

    1. Относиться к текстам как к основному инструменту продвижения.

    Наряду с фильтром «Переоптимизация» «Яндекс» в середине 2014 года ввёл новый «Антиспам-фильтр». Он похож на своего «старшего брата», но более жёсткий (приводит к потере позиций в выдаче вплоть до 1000) и учитывающий больше нюансов.
    Что делать, чтобы не подвести свой сайт под «Антиспам-фильтр»?
    Уделять особое внимание длине и заспамленности ключевыми словами заголовков (title) и описаний (description) страниц.
    Не зацикливаться на прямых вхождениях «ключей» и ограничить общий процент использования ключевых слов и выражений. Это касается таких «экзотов», как «Где купить ххх дёшево?», «Недорогие услуги ... в городе N» и т.п., но не базовых словосочетаний типа названий товаров или отраслевых терминов, без которых невозможно донести информацию. В отношении последних действует обычный литературный «ограничитель» - критерий тавтологичности.
    Тщательно редактировать тексты: «Антиспам-фильтр» настроен на определение орфографических и пунктуационных ошибок.
    Не выделять «ключи» жирным, курсивом и другими способами. Делать это можно лишь в отношении фраз или слов, на которых стоят логические акценты для привлечения внимания читателя. Ничего нового, всё логично - выделяется главная мысль или термин, а не любой «ключ».
    По возможности заменять избыточные «ключи» словами из подсказок и «Спектра».

    2. Сосредоточиться на естественном линкбилдинге, приносящем трафик.

    12 марта 2014 года «Яндекс» произвёл отмену ссылочного ранжирования по Москве и области для коммерческих запросов в ряде сфер. Не за горами отмена избыточного влияния ссылок и по всей России. В этой ситуации особенно важным становится построение естественного ссылочного окружения, дающего целевой трафик на сайт.
    Естественные ссылки накрепко связаны с качественным экспертным контентом на сайте, посколькутолько ценной или любопытной информацией люди делятся в интернете, поставив ссылку на форуме, в соцсети, на своём сайте или блоге. По крайней мере, поисковик принимает это как аксиому.
    Сайтовладельцам, которые с давних пор закупали ссылки на бирже, необходимо позаботиться о качественных бэклинках, тщательно проанализировать все ссылки на свой сайт и проделать следующую работу:
    убрать весь ссылочный «мусор»:
    арендованные ссылки;
    ссылки с некачественных ресурсов;
    нетематические;
    с неестественными анкорами;
    подумать о повышении юзабилити сайта (чтобы не отбить желание ссылаться на сайт);
    заняться получением естественных трафиковых ссылок.

    3. Правильно работать с поведенческими факторами.

    С 1 декабря 2014 года по рунету идёт волна пессимизации веб-ресурсов за накрутку поведенческих факторов (ПФ), к которым относятся: количество посещений, процент отказов, глубина просмотра сайта, время, проведённое посетителем на ресурсе.
    Что делать в 2015 году, чтобы избежать санкций «Яндекса»?
    Не использовать сервисы накруток типа Seopult, Movebo, Perfectseo, Userator, WebEffector, SerpClick, Megaseo. Также в «запретной связи» с «Сеопультом» был замечен сервис социальных кнопок для сайтов UpToLike, с помощью которого собираются данные о социальном поведении пользователей на площадках с установленными кнопками и в дальнейшем используются «Сеопультом» для разработки кампаний по «улучшению» ПФ. По этому поводу в блоге «Яндекса» опубликована заметка «Использование некорректных способов продвижения приводит к существенной потере трафика».
    Обращать внимание на рефспам, который увеличивает процент отказов и может расцениваться поисковиками как накрутка поведенческих факторов.
    Надо отметить, что санкции накладываются на срок от 6 месяцев, а выход на прежние позиции после исправления ошибок может занимать до года.

    Рекомендации для развития сайта с учётом требований обоих поисковиков

    1. Пересмотреть отношение к рекламе и всплывающим окнам на сайте.

    а) Алгоритм Page Layout от Google.
    Этот алгоритм, обновлённый 6 февраля 2014 года, направлен на понижение в выдаче страниц с избытком рекламы в верхней части сайта или с объявлениями, отвлекающими внимание пользователей от основного контента.
    б) Усовершенствование алгоритмов «Яндекса» по пессимизации сайтов с назойливой рекламой.
    В сентябре 2014 года российский поисковик объявил о результатах борьбы с большим количеством рекламы на сайтах и обновлении алгоритмов: «Изменения в ранжировании страниц с назойливой рекламой».
    Если Вы хотите продолжать размещать рекламные блоки на своём сайте, то желательно не ставить их более двух, причём реклама не должна отвлекать от основного контента, перекрывать его, а уж тем более замещать, отодвигая текст в сторону или вниз.
    Это касается и ставших в последнее время модными всплывающих виджетов типа «Мы Вам перезвоним через 26 секунд», «Вы были на сайте уже 10 секунд! Нашли что-то полезное?» и пр.

    2. Видеть дальше персонализированного поиска.

    а) Более 10 лет поиск в Google персонализируется в зависимости от многих факторов:
    Истории поиска. Если Вы ищете что-то в Google под своим аккаунтом, при формировании результатов поиска учитывается история минимум за год. И даже если Вы работаете с поисковиком анонимно, Google всё равно будет выдавать персонализированные результаты, поскольку при помощи файлов cookie хранит историю поиска в конкретном браузере за 180 дней. Не будешь же чистку каждый день устраивать...

    Предыдущего запроса. Google работает по механизму уточнения предыдущего запроса, предполагая, что Вы по нему нашли не всё, что искали, а потому предлагает страницы, связанные одновременно с текущим и предыдущим запросами.

    Географического положения пользователя. Результаты поиска, которые выдаются пользователю в одном городе, могут разительно отличаться от результатов по тому же поисковому запросу в другом городе. 24 июля 2014 года в США был запущен новый алгоритм Pigeon 1.0 («Голубь»), который резко изменил результаты локальной выдачи в связи с введением новых механизмов обработки и интерпретации сигналов местоположения. В итоге близость расположения бизнеса для пользователя Google стала чуть ли не главным фактором в поисковой выдаче. Даты внедрения нового алгоритма в других странах пока не озвучиваются.

    б) «Яндекс» не отстаёт от западного конкурента в деле персонализации поиска: 12 декабря 2012 года российская компания запустила алгоритм «Калининград», учитывающий историю поиска. В то же время «Яндекс» обращает внимание и на географическое положение пользователя, а также разделяет запросы на геозависимые (по которым выдача привязана к региону) и геонезависимые (результаты поиска не зависят от региона пользователя).

    Таким образом, вокруг каждого пользователя формируется поисковый пузырь, из которого не так-то легко выбраться. Это порождает массу иллюзий, например, у владельцев сайтов. Нужно просто принять, что практически невозможно узнать, на каких позициях в SERP Ваш сайт видят другие люди. Чтобы получить действительно точные данные по неперсонализированным позициям, следует использовать специальные программы или онлайн-сервисы, например, AllPositions (платный), «Энергослон» (платный), SEOGadget (бесплатный, но с ограничением количества проверок в день).

    Но не надо заблуждаться и в отношении этого инструмента - он тоже не отражает реальную видимость ресурса (как мы поняли, она вообще индивидуальна). Увидеть сайт на позициях, определённых программами, может только ОН, Уникум анонимикус, постоянно уничтожающий cookies, генерирующий новые IP и т.п., или же впервые воспользовавшийся браузером где-то на орбите (а может, и там пеленгуют?). Но несмотря на то, что этот инструмент обитает в вакууме, он полезен, просто цель у него другая - оценка в динамике эффективности прикладываемых усилий по развитию ресурса. Иными словами, неперсонализированные позиции помогают понять, одобряет или нет поисковик вашу деятельность. А уж где в SERP сайт увидят Маша или Вася, сильно зависит от их сетевого поведения.

    Заключение

    Все стратегии, описанные выше, разумеется, требуют вложения сил и средств. Их реализация длительна и трудоёмка. Но следует понять, что время быстрых решений и магического SEO ушло. Поисковые системы совершенствуются и ратуют за «чистоту», органичность выдачи, работая (за исключением «пузырных» перегибов) в конечном итоге для нас – пользователей интернета. И если строить и развивать сайт, следуя рекомендациям поисковых систем, усилия со временем окупятся.
  2. mazhara1986 liked a post in a topic by asd43 in Одноклассники - сеть с огромным нереализованным потенциалом   
    Майл выехал на почте то что она легка и читается как майл ру не джимайл или того хуже для запоминания, прочтения и написания как яндекс ру, вот вторых они не делают серьезных разработок поэтому все пишут про унылое г...о, яндекс тоже сказать почти ничего не придумал сам а только тащит, но они сидят и пашут над доработкой и серьезно, майл же поисковиком стал пару недель назад видимо решили за него взяться до этого это был каталог сайтов, рейтинг паршивый, ася умирает и умрет, так как повторюсь ничего нового и интересного не внедряется лишь монетизируется и все на этом, как говорится это баблорубка и не более о людях там мало думают, ВК развивался иначе поэтому он впереди.
     
    Всегда есть два варианта, например вы делаете видеохостинг у вас 1 вариант идти по стопам Ютуб долго и дорого или 2 по стопам Рутуб быстро и недорого но Вы никогда не станете Брендом таким как Ютуб так как изначально выбрали легкую дорогу, именно по такой дороге идет Майл ру групп
  3. mazhara1986 liked a post in a topic by campusboy in Помогите   
    Давно нашёл такой способ и делаю по такому подобию:
    <?php $parametri = array( 'post_type' => 'post', /* Отбираем только записи. */ 'post_status' => 'publish', /* И только опубликованные. */ 'posts_per_page' => -1, /* Снимаем ограничение на количество показываемых записей на одну страничку. Можно вписать любое число. 12 выведет 12 записей */ 'caller_get_posts' => 1, /* Игнорируем особенности записей-липучек. */ 'offset' => 0, // с какой записи начинать отсчет 'order'=>DESC // сортировка ); $moi_zapros = null; $moi_zapros = new WP_Query($parametri); /* Формируем новый "нестандартный" запрос. */ if ($moi_zapros->have_posts()): print '<li>'; while ($moi_zapros->have_posts()) : $moi_zapros->the_post(); ?> <ul><a href="<?php the_permalink() ?>"><?php the_title(); ?></a></ul> <?php endwhile; print '</li>'; endif; wp_reset_query(); /* Сбрасываем нашу выборку. */ ?> В этом цикле можно выводить всю информацию, касающуюся записи (теги, метаданные и так далее)
  4. mazhara1986 liked a post in a topic by Indigo88 in Помогите   
    А в чем сложность? делаете отдельную страницу, подключайте хедер, футер, сайдбары и вставляете туда код http://wp-kama.ru/function/query_posts
  5. mazhara1986 liked a post in a topic by oldzas in Помогите   
    у тебя сейчас сделан вывод статей - ограниченный по кол-ву, ну например 10 штук.
    делаем так:
    1) создаем физическую страницу
    2) копируем функционал с этой страницы - туда 1 в 1, только пагинатор засунь и все
    3) делаем переход ссылку с 1ой страницы на полный список новостей
     
    Я так понял фишка только в отличии наличия пагинатора + ограничении кол-ва на вывод новостей