campusboy

VIP
  • Content count

    915
  • Joined

  • Last visited

  • Days Won

    23

Reputation Activity

  1. campusboy liked a post in a topic by vituson in Сетка сайтов для заработка денег.   
    Меня поражают скороспелки, которые не удосуживаются всю тему прочитать. ТС написал, что у него бюджет - 150К.
  2. Elliot liked a post in a topic by campusboy in Асинхронная загрузка CSS как советует Google   
    Это самый медленный способ. Браузеру надо сначала default.css загрузить, а затем, чтобы распарсить его правильно, последовательно загрузить все "внутренние" css. Пруф (англ), перевод.
  3. Elliot liked a post in a topic by campusboy in Не понимаю как к Функции прикрутить права групп пользователей Wordpress   
    Ещё вариант:
    add_filter( 'rcl_pre_output_tab', 'edit_you_author_tab_data' ); function edit_you_author_tab_data( $data ) { // Если наша вкладка с id = you_author if ( $data['id'] === 'you_author' ) { // Если пользователь имеет роль = автор if ( current_user_can( 'author' ) ) { unset($data); return; } } return $data; }  
  4. campusboy liked a post in a topic by Tru in SEO школа разгильдяев   
    Всех SEO оптимистов,  с наступившей весной!
    Малоизвестный хитрый финт,  для более быстрого продвижения сайтов.
    Регистрируетесь на тематическом, или скажем трастовом новостном форуме.
    Сначала просто ставим профиле ссылку на свой сайт если есть возможность.
    Само собой разумеется, ставим вторую ссылку в подписи, если есть возможность.
    Не редко можно даже несколько ссылок на разные свои сайты в подписи зафигачить.
    Но не переусердствуйте море пива и море ссылок приносят вред, от отравления....

    И вот теперь малоизвестный факт:
    Ставим в профиле день рождения на 1-2 дня после заполнения профиля.
    Через 1-2 дня ваш Ник с поздравлениями и ссылкой на профиль появится на главной странице форума.
    Вуаля!
    Вы тут же попадаете в индекс.
    P.S/
    Расширенные ссылки на сайты в подпись, желательно отредактировать через недельку или полторы.
    Что бы модератор не порубал
    Тогда же и измените день рожденья.
     
     
  5. campusboy liked a post in a topic by leg1onary in SQL запрос с фильтром по столбцу   
    UPDATE <тут название вашей таблицы> SET meta_value = null WHERE meta_key = `_yoast_wpseo_title` Если правильно Вас понял, то таким образом, только следует подставить название Вашей таблицы.
  6. simbo liked a post in a topic by campusboy in Защита от плохих роботов через .htaccess   
    Приветствую, ребята. Решил защититься от ненужных (плохих в данном контексте) пауков/роботов, чтобы снизить нагрузку на сайт, всё равно от них толку-то нет. В интернете, конечно, инфа есть, но возникли вопросы, да и мнение Форумчан интересно. Для начала выложу решения, чтобы было с чем работать. Надеюсь, общими силами сможем списки таких ботов расширить.
    Итак, один из подобных списков:
    # Блокируем плохие домены RewriteEngine on RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?anonym.to/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?anonym.to.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?anonyme.ru/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?anonyme.ru.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?priceg.com.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?ilovevitaly.com.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?ilovevitaly.com/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?cenoval.ru/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?cenoval.ru.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?darodar.com.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?darodar.com/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?urls.topdownloads.ru/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?urls.topdownloads.ru.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?topdownloads.ru/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?topdownloads.ru.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?ftns.ru.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?ftns.ru/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?forum.advokateg.ru/topic/888/.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?vodkoved.ru.*$ [NC,OR] RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?site.name.tr/.*$ [NC] Options All -Indexes RewriteEngine on # Блокируем плохие боты SetEnvIfNoCase User-Agent "Aboundex" bad_bot SetEnvIfNoCase User-Agent "80legs" bad_bot SetEnvIfNoCase User-Agent "360Spider" bad_bot SetEnvIfNoCase User-Agent "^Java" bad_bot SetEnvIfNoCase User-Agent "^Cogentbot" bad_bot SetEnvIfNoCase User-Agent "^Alexibot" bad_bot SetEnvIfNoCase User-Agent "^asterias" bad_bot SetEnvIfNoCase User-Agent "^attach" bad_bot SetEnvIfNoCase User-Agent "^BackDoorBot" bad_bot SetEnvIfNoCase User-Agent "^BackWeb" bad_bot SetEnvIfNoCase User-Agent "Bandit" bad_bot SetEnvIfNoCase User-Agent "^BatchFTP" bad_bot SetEnvIfNoCase User-Agent "^Bigfoot" bad_bot SetEnvIfNoCase User-Agent "^Black.Hole" bad_bot SetEnvIfNoCase User-Agent "^BlackWidow" bad_bot SetEnvIfNoCase User-Agent "^BlowFish" bad_bot SetEnvIfNoCase User-Agent "^BotALot" bad_bot SetEnvIfNoCase User-Agent "Buddy" bad_bot SetEnvIfNoCase User-Agent "^BuiltBotTough" bad_bot SetEnvIfNoCase User-Agent "^Bullseye" bad_bot SetEnvIfNoCase User-Agent "^BunnySlippers" bad_bot SetEnvIfNoCase User-Agent "^Cegbfeieh" bad_bot SetEnvIfNoCase User-Agent "^CheeseBot" bad_bot SetEnvIfNoCase User-Agent "^CherryPicker" bad_bot SetEnvIfNoCase User-Agent "^ChinaClaw" bad_bot SetEnvIfNoCase User-Agent "Collector" bad_bot SetEnvIfNoCase User-Agent "Copier" bad_bot SetEnvIfNoCase User-Agent "^CopyRightCheck" bad_bot SetEnvIfNoCase User-Agent "^cosmos" bad_bot SetEnvIfNoCase User-Agent "^Crescent" bad_bot SetEnvIfNoCase User-Agent "^Custo" bad_bot SetEnvIfNoCase User-Agent "^AIBOT" bad_bot SetEnvIfNoCase User-Agent "^DISCo" bad_bot SetEnvIfNoCase User-Agent "^DIIbot" bad_bot SetEnvIfNoCase User-Agent "^DittoSpyder" bad_bot SetEnvIfNoCase User-Agent "^Download\ Demon" bad_bot SetEnvIfNoCase User-Agent "^Download\ Devil" bad_bot SetEnvIfNoCase User-Agent "^Download\ Wonder" bad_bot SetEnvIfNoCase User-Agent "^dragonfly" bad_bot SetEnvIfNoCase User-Agent "^Drip" bad_bot SetEnvIfNoCase User-Agent "^eCatch" bad_bot SetEnvIfNoCase User-Agent "^EasyDL" bad_bot SetEnvIfNoCase User-Agent "^ebingbong" bad_bot SetEnvIfNoCase User-Agent "^EirGrabber" bad_bot SetEnvIfNoCase User-Agent "^EmailCollector" bad_bot SetEnvIfNoCase User-Agent "^EmailSiphon" bad_bot SetEnvIfNoCase User-Agent "^EmailWolf" bad_bot SetEnvIfNoCase User-Agent "^EroCrawler" bad_bot SetEnvIfNoCase User-Agent "^Exabot" bad_bot SetEnvIfNoCase User-Agent "^Express\ WebPictures" bad_bot SetEnvIfNoCase User-Agent "Extractor" bad_bot SetEnvIfNoCase User-Agent "^EyeNetIE" bad_bot SetEnvIfNoCase User-Agent "^Foobot" bad_bot SetEnvIfNoCase User-Agent "^flunky" bad_bot SetEnvIfNoCase User-Agent "^FrontPage" bad_bot SetEnvIfNoCase User-Agent "^Go-Ahead-Got-It" bad_bot SetEnvIfNoCase User-Agent "^gotit" bad_bot SetEnvIfNoCase User-Agent "^GrabNet" bad_bot SetEnvIfNoCase User-Agent "^Grafula" bad_bot SetEnvIfNoCase User-Agent "^Harvest" bad_bot SetEnvIfNoCase User-Agent "^hloader" bad_bot SetEnvIfNoCase User-Agent "^HMView" bad_bot SetEnvIfNoCase User-Agent "^HTTrack" bad_bot SetEnvIfNoCase User-Agent "^humanlinks" bad_bot SetEnvIfNoCase User-Agent "^IlseBot" bad_bot SetEnvIfNoCase User-Agent "^Image\ Stripper" bad_bot SetEnvIfNoCase User-Agent "^Image\ Sucker" bad_bot SetEnvIfNoCase User-Agent "Indy\ Library" bad_bot SetEnvIfNoCase User-Agent "^InfoNaviRobot" bad_bot SetEnvIfNoCase User-Agent "^InfoTekies" bad_bot SetEnvIfNoCase User-Agent "^Intelliseek" bad_bot SetEnvIfNoCase User-Agent "^InterGET" bad_bot SetEnvIfNoCase User-Agent "^Internet\ Ninja" bad_bot SetEnvIfNoCase User-Agent "^Iria" bad_bot SetEnvIfNoCase User-Agent "^Jakarta" bad_bot SetEnvIfNoCase User-Agent "^JennyBot" bad_bot SetEnvIfNoCase User-Agent "^JetCar" bad_bot SetEnvIfNoCase User-Agent "^JOC" bad_bot SetEnvIfNoCase User-Agent "^JustView" bad_bot SetEnvIfNoCase User-Agent "^Jyxobot" bad_bot SetEnvIfNoCase User-Agent "^Kenjin.Spider" bad_bot SetEnvIfNoCase User-Agent "^Keyword.Density" bad_bot SetEnvIfNoCase User-Agent "^larbin" bad_bot SetEnvIfNoCase User-Agent "^LexiBot" bad_bot SetEnvIfNoCase User-Agent "^lftp" bad_bot SetEnvIfNoCase User-Agent "^libWeb/clsHTTP" bad_bot SetEnvIfNoCase User-Agent "^likse" bad_bot SetEnvIfNoCase User-Agent "^LinkextractorPro" bad_bot SetEnvIfNoCase User-Agent "^LinkScan/8.1a.Unix" bad_bot SetEnvIfNoCase User-Agent "^LNSpiderguy" bad_bot SetEnvIfNoCase User-Agent "^LinkWalker" bad_bot SetEnvIfNoCase User-Agent "^lwp-trivial" bad_bot SetEnvIfNoCase User-Agent "^LWP::Simple" bad_bot SetEnvIfNoCase User-Agent "^Magnet" bad_bot SetEnvIfNoCase User-Agent "^Mag-Net" bad_bot SetEnvIfNoCase User-Agent "^MarkWatch" bad_bot SetEnvIfNoCase User-Agent "^Mass\ Downloader" bad_bot SetEnvIfNoCase User-Agent "^Mata.Hari" bad_bot SetEnvIfNoCase User-Agent "^Memo" bad_bot SetEnvIfNoCase User-Agent "^Microsoft.URL" bad_bot SetEnvIfNoCase User-Agent "^Microsoft\ URL\ Control" bad_bot SetEnvIfNoCase User-Agent "^MIDown\ tool" bad_bot SetEnvIfNoCase User-Agent "^MIIxpc" bad_bot SetEnvIfNoCase User-Agent "^Mirror" bad_bot SetEnvIfNoCase User-Agent "^Missigua\ Locator" bad_bot SetEnvIfNoCase User-Agent "^Mister\ PiX" bad_bot SetEnvIfNoCase User-Agent "^moget" bad_bot SetEnvIfNoCase User-Agent "^Mozilla/3.Mozilla/2.01" bad_bot SetEnvIfNoCase User-Agent "^Mozilla.*NEWT" bad_bot SetEnvIfNoCase User-Agent "^NAMEPROTECT" bad_bot SetEnvIfNoCase User-Agent "^Navroad" bad_bot SetEnvIfNoCase User-Agent "^NearSite" bad_bot SetEnvIfNoCase User-Agent "^NetAnts" bad_bot SetEnvIfNoCase User-Agent "^Netcraft" bad_bot SetEnvIfNoCase User-Agent "^NetMechanic" bad_bot SetEnvIfNoCase User-Agent "^NetSpider" bad_bot SetEnvIfNoCase User-Agent "^Net\ Vampire" bad_bot SetEnvIfNoCase User-Agent "^NetZIP" bad_bot SetEnvIfNoCase User-Agent "^NextGenSearchBot" bad_bot SetEnvIfNoCase User-Agent "^NG" bad_bot SetEnvIfNoCase User-Agent "^NICErsPRO" bad_bot SetEnvIfNoCase User-Agent "^niki-bot" bad_bot SetEnvIfNoCase User-Agent "^NimbleCrawler" bad_bot SetEnvIfNoCase User-Agent "^Ninja" bad_bot SetEnvIfNoCase User-Agent "^NPbot" bad_bot SetEnvIfNoCase User-Agent "^Octopus" bad_bot SetEnvIfNoCase User-Agent "^Offline\ Explorer" bad_bot SetEnvIfNoCase User-Agent "^Offline\ Navigator" bad_bot SetEnvIfNoCase User-Agent "^Openfind" bad_bot SetEnvIfNoCase User-Agent "^OutfoxBot" bad_bot SetEnvIfNoCase User-Agent "^PageGrabber" bad_bot SetEnvIfNoCase User-Agent "^Papa\ Foto" bad_bot SetEnvIfNoCase User-Agent "^pavuk" bad_bot SetEnvIfNoCase User-Agent "^pcBrowser" bad_bot SetEnvIfNoCase User-Agent "^PHP\ version\ tracker" bad_bot SetEnvIfNoCase User-Agent "^Pockey" bad_bot SetEnvIfNoCase User-Agent "^ProPowerBot/2.14" bad_bot SetEnvIfNoCase User-Agent "^ProWebWalker" bad_bot SetEnvIfNoCase User-Agent "^psbot" bad_bot SetEnvIfNoCase User-Agent "^Pump" bad_bot SetEnvIfNoCase User-Agent "^QueryN.Metasearch" bad_bot SetEnvIfNoCase User-Agent "^RealDownload" bad_bot SetEnvIfNoCase User-Agent "Reaper" bad_bot SetEnvIfNoCase User-Agent "Recorder" bad_bot SetEnvIfNoCase User-Agent "^ReGet" bad_bot SetEnvIfNoCase User-Agent "^RepoMonkey" bad_bot SetEnvIfNoCase User-Agent "^RMA" bad_bot SetEnvIfNoCase User-Agent "Siphon" bad_bot SetEnvIfNoCase User-Agent "^SiteSnagger" bad_bot SetEnvIfNoCase User-Agent "^SlySearch" bad_bot SetEnvIfNoCase User-Agent "^SmartDownload" bad_bot SetEnvIfNoCase User-Agent "^Snake" bad_bot SetEnvIfNoCase User-Agent "^Snapbot" bad_bot SetEnvIfNoCase User-Agent "^Snoopy" bad_bot SetEnvIfNoCase User-Agent "^sogou" bad_bot SetEnvIfNoCase User-Agent "^SpaceBison" bad_bot SetEnvIfNoCase User-Agent "^SpankBot" bad_bot SetEnvIfNoCase User-Agent "^spanner" bad_bot SetEnvIfNoCase User-Agent "^Sqworm" bad_bot SetEnvIfNoCase User-Agent "Stripper" bad_bot SetEnvIfNoCase User-Agent "Sucker" bad_bot SetEnvIfNoCase User-Agent "^SuperBot" bad_bot SetEnvIfNoCase User-Agent "^SuperHTTP" bad_bot SetEnvIfNoCase User-Agent "^Surfbot" bad_bot SetEnvIfNoCase User-Agent "^suzuran" bad_bot SetEnvIfNoCase User-Agent "^Szukacz/1.4" bad_bot SetEnvIfNoCase User-Agent "^tAkeOut" bad_bot SetEnvIfNoCase User-Agent "^Teleport" bad_bot SetEnvIfNoCase User-Agent "^Telesoft" bad_bot SetEnvIfNoCase User-Agent "^TurnitinBot/1.5" bad_bot SetEnvIfNoCase User-Agent "^The.Intraformant" bad_bot SetEnvIfNoCase User-Agent "^TheNomad" bad_bot SetEnvIfNoCase User-Agent "^TightTwatBot" bad_bot SetEnvIfNoCase User-Agent "^Titan" bad_bot SetEnvIfNoCase User-Agent "^True_Robot" bad_bot SetEnvIfNoCase User-Agent "^turingos" bad_bot SetEnvIfNoCase User-Agent "^TurnitinBot" bad_bot SetEnvIfNoCase User-Agent "^URLy.Warning" bad_bot SetEnvIfNoCase User-Agent "^Vacuum" bad_bot SetEnvIfNoCase User-Agent "^VCI" bad_bot SetEnvIfNoCase User-Agent "^VoidEYE" bad_bot SetEnvIfNoCase User-Agent "^Web\ Image\ Collector" bad_bot SetEnvIfNoCase User-Agent "^Web\ Sucker" bad_bot SetEnvIfNoCase User-Agent "^WebAuto" bad_bot SetEnvIfNoCase User-Agent "^WebBandit" bad_bot SetEnvIfNoCase User-Agent "^Webclipping.com" bad_bot SetEnvIfNoCase User-Agent "^WebCopier" bad_bot SetEnvIfNoCase User-Agent "^WebEMailExtrac.*" bad_bot SetEnvIfNoCase User-Agent "^WebEnhancer" bad_bot SetEnvIfNoCase User-Agent "^WebFetch" bad_bot SetEnvIfNoCase User-Agent "^WebGo\ IS" bad_bot SetEnvIfNoCase User-Agent "^Web.Image.Collector" bad_bot SetEnvIfNoCase User-Agent "^WebLeacher" bad_bot SetEnvIfNoCase User-Agent "^WebmasterWorldForumBot" bad_bot SetEnvIfNoCase User-Agent "^WebReaper" bad_bot SetEnvIfNoCase User-Agent "^WebSauger" bad_bot SetEnvIfNoCase User-Agent "^Website\ eXtractor" bad_bot SetEnvIfNoCase User-Agent "^Website\ Quester" bad_bot SetEnvIfNoCase User-Agent "^Webster" bad_bot SetEnvIfNoCase User-Agent "^WebStripper" bad_bot SetEnvIfNoCase User-Agent "^WebWhacker" bad_bot SetEnvIfNoCase User-Agent "^WebZIP" bad_bot SetEnvIfNoCase User-Agent "Whacker" bad_bot SetEnvIfNoCase User-Agent "^Widow" bad_bot SetEnvIfNoCase User-Agent "^WISENutbot" bad_bot SetEnvIfNoCase User-Agent "^WWWOFFLE" bad_bot SetEnvIfNoCase User-Agent "^WWW-Collector-E" bad_bot SetEnvIfNoCase User-Agent "^Xaldon" bad_bot SetEnvIfNoCase User-Agent "^Xenu" bad_bot SetEnvIfNoCase User-Agent "^Zeus" bad_bot SetEnvIfNoCase User-Agent "ZmEu" bad_bot SetEnvIfNoCase User-Agent "^Zyborg" bad_bot # Блокируем плохие сканеры SetEnvIfNoCase User-Agent "Acunetix" bad_bot SetEnvIfNoCase User-Agent "FHscan" bad_bot # Блокируем ненужные поисковики SetEnvIfNoCase User-Agent "Baiduspider" bad_bot <Limit GET POST HEAD> Order Allow,Deny Allow from all # Блокируем плохие IP deny from 38.100.19.8/29 deny from 38.100.21.0/24 deny from 38.100.41.64/26 deny from 38.105.71.0/25 deny from 38.105.83.0/27 deny from 38.112.21.140/30 deny from 38.118.42.32/29 deny from 65.213.208.128/27 deny from 65.222.176.96/27 deny from 65.222.185.72/29 Deny from env=bad_bot </Limit>  Вот ещё видео
     
    https://youtu.be/dvjcrCaIUzg
     
    Также постоянно редактируемый список таких ботов от HackRepair.com http://pastebin.com/5Hw9KZnW
     
    Далее в плагине для Wordpress под названием All in One SEO Pack есть модуль Bad Bot Blocker, который на уровне PHP или htaccess запрещает доступ к сайту по определенным правилам (можно менять), по дефолту выглядит так для htaccess:
    # BEGIN Bad Bot Blocker SetEnvIfNoCase User-Agent "Abonti|aggregator|AhrefsBot|asterias|BDCbot|BLEXBot|BuiltBotTough|Bullseye|BunnySlippers|ca\-crawler|CCBot|Cegbfeieh|CheeseBot|CherryPicker|CopyRightCheck|cosmos|Crescent|discobot|DittoSpyder|DOC|DotBot|Download Ninja|EasouSpider|EmailCollector|EmailSiphon|EmailWolf|EroCrawler|Exabot|ExtractorPro|Fasterfox|FeedBooster|Foobot|Genieo|grub\-client|Harvest|hloader|httplib|HTTrack|humanlinks|ieautodiscovery|InfoNaviRobot|IstellaBot|Java/1\.|JennyBot|k2spider|Kenjin Spider|Keyword Density/0\.9|larbin|LexiBot|libWeb|libwww|LinkextractorPro|linko|LinkScan/8\.1a Unix|LinkWalker|LNSpiderguy|lwp\-trivial|magpie|Mata Hari|MaxPointCrawler|MegaIndex|Microsoft URL Control|MIIxpc|Mippin|Missigua Locator|Mister PiX|MJ12bot|moget|MSIECrawler|NetAnts|NICErsPRO|Niki\-Bot|NPBot|Nutch|Offline Explorer|Openfind|panscient\.com|PHP/5\.\{|ProPowerBot/2\.14|ProWebWalker|Python\-urllib|QueryN Metasearch|RepoMonkey|RMA|SemrushBot|SeznamBot|SISTRIX|sitecheck\.Internetseer\.com|SiteSnagger|SnapPreviewBot|Sogou|SpankBot|spanner|spbot|Spinn3r|suzuran|Szukacz/1\.4|Teleport|Telesoft|The Intraformant|TheNomad|TightTwatBot|Titan|toCrawl/UrlDispatcher|True_Robot|turingos|TurnitinBot|UbiCrawler|UnisterBot|URLy Warning|VCI|WBSearchBot|Web Downloader/6\.9|Web Image Collector|WebAuto|WebBandit|WebCopier|WebEnhancer|WebmasterWorldForumBot|WebReaper|WebSauger|Website Quester|Webster Pro|WebStripper|WebZip|Wotbox|wsr\-agent|WWW\-Collector\-E|Xenu|yandex|Zao|Zeus|ZyBORG|coccoc|Incutio|lmspider|memoryBot|SemrushBot|serf|Unknown|uptime files" bad_bot SetEnvIfNoCase Referer "Abonti|aggregator|AhrefsBot|asterias|BDCbot|BLEXBot|BuiltBotTough|Bullseye|BunnySlippers|ca\-crawler|CCBot|Cegbfeieh|CheeseBot|CherryPicker|CopyRightCheck|cosmos|Crescent|discobot|DittoSpyder|DOC|DotBot|Download Ninja|EasouSpider|EmailCollector|EmailSiphon|EmailWolf|EroCrawler|Exabot|ExtractorPro|Fasterfox|FeedBooster|Foobot|Genieo|grub\-client|Harvest|hloader|httplib|HTTrack|humanlinks|ieautodiscovery|InfoNaviRobot|IstellaBot|Java/1\.|JennyBot|k2spider|Kenjin Spider|Keyword Density/0\.9|larbin|LexiBot|libWeb|libwww|LinkextractorPro|linko|LinkScan/8\.1a Unix|LinkWalker|LNSpiderguy|lwp\-trivial|magpie|Mata Hari|MaxPointCrawler|MegaIndex|Microsoft URL Control|MIIxpc|Mippin|Missigua Locator|Mister PiX|MJ12bot|moget|MSIECrawler|NetAnts|NICErsPRO|Niki\-Bot|NPBot|Nutch|Offline Explorer|Openfind|panscient\.com|PHP/5\.\{|ProPowerBot/2\.14|ProWebWalker|Python\-urllib|QueryN Metasearch|RepoMonkey|RMA|SemrushBot|SeznamBot|SISTRIX|sitecheck\.Internetseer\.com|SiteSnagger|SnapPreviewBot|Sogou|SpankBot|spanner|spbot|Spinn3r|suzuran|Szukacz/1\.4|Teleport|Telesoft|The Intraformant|TheNomad|TightTwatBot|Titan|toCrawl/UrlDispatcher|True_Robot|turingos|TurnitinBot|UbiCrawler|UnisterBot|URLy Warning|VCI|WBSearchBot|Web Downloader/6\.9|Web Image Collector|WebAuto|WebBandit|WebCopier|WebEnhancer|WebmasterWorldForumBot|WebReaper|WebSauger|Website Quester|Webster Pro|WebStripper|WebZip|Wotbox|wsr\-agent|WWW\-Collector\-E|Xenu|yandex|Zao|Zeus|ZyBORG|coccoc|Incutio|lmspider|memoryBot|SemrushBot|serf|Unknown|uptime files" bad_bot Deny from env=bad_bot # END Bad Bot Blocker Запись уже другая, какая-то более компактная. Сразу скажу, при активации этих дефолтных параметров через секунд 20 пришло извещение от Метрики, что пауку отдаётся 403 ошибка.
     
    Хочу, в общем, эту тему разобрать, особенно с помощью htaccess, так как кеш работает через него. Особенно это актуально для сайтов с большим количеством страниц, потому что даже если посещалка маленькие, пауки нагружают сайт вхолостую. Также исключив таких пауков можно сделать статистку в Метрики и Аналистике более точной (так ведь?), так как такие роботы дают всегда 100% отказов. Ну и теперь сами вопросы:
     
    1) Защищаетесь ли вы от "плохих" роботов. Если "Да", то какими путями?
    2) При включении этих правил в htaccess, его размер увеличивается до 15кб и выше. Не создаст ли это большую нагрузку, чем было с роботами?
    3) Какой метод более правильный из приведенных в статье, если есть вообще в данном случае понятие правильности.
     
    Рад буду услышать мнения специалистов, дополнения. Если тема интересна, то может будем обновлять список?
  7. campusboy liked a post in a topic by serjin in Поделитесь опытом общения с различными типами заказчиков   
    У всех(почти) халявщиков и горе-посредников одна общая черта.
    Здравствуйте не умеют писать,ВЫ понятие напрочь отсутствует.
    Ну и как правило в теме которую предлагают понимания 0.
    Всю свою работу норовят перекинуть на тебя + доп работ накинут. с манипуляцией в разговоре, ну ты специалист так сделай чего тебе стоит(а ты заказчик заплати).
    Вечно торопятся,всем нужно вчера это понятно... но этим всегда нужно месяц назад,и кстати срочность не оплачивают(понятие что так и должно быть).
    Можно прям сразу ванговать с вероятностью  80% что заработанного ты  не получиш,а посредник сольется как и не было его.
    Таких нужно отшивать сразу,если с заказами совсем туго и согласен на вынос мозга то работать только по безопасной сделке. 
    Впрочем есть и нормальные посредники которые платят нормально и работают честно но таковых очень мало.
    Ну и как пример(скрин) разговор с посредником который не умеет писать тз.))
     

    Ну и пару слов о фрилансерах которые пропадают...
    А почему фрилансер пропал? вопрос заказчику.
    В любой бирже есть топ,рейтинг,отзывы и тд. 
    1.Те кто в топе берут за услуги как правило дороже.
    2.Они по большей части заняты и их нужно ждать.
    3.Они задают тупые вопросы которые не нравятся заказчикам.
    4.Поскольку они заняты то выяснять кидала ты или нет времени и желания нет,потому работают по безопастной сделке.
    А заказчик выбирает...
    1.Дешевле.
    2.Соответственно без рейтинга и отзывов новорега.
    3.Который не задает тупых вопросов,а льет в уши сладкие речи про то как будет все выглядеть прекрасно.
    4.Предоплата совсем не большая(не жалко сильно)
    Фрилансер исчез
     
  8. petroff liked a post in a topic by campusboy in Помогите убрать лишний текст из превью в рубриках WP   
    Меняем и забываем про обновления :-) Или каждый раз после обновления редактируем. Для этого следующей строчкой идёт фильтр:
    $show = apply_filters( 'sabox_check_if_show', $show ); Авторы плагина это предусмотрели. Остаётся лишь в functions.php темы или отдельно плагином подключиться к хуку и сделать как нам надо, то есть:
    add_filter( 'sabox_check_if_show', 'sabox_check_if_show_archive' ); function sabox_check_if_show_archive( $show ) { return is_archive() ? false : $show; }  
  9. ksanyok liked a post in a topic by campusboy in Помоги исправить код   
    Чисто теоретически написал:
    function after_cart_btn_add_preview_btn() { global $post; $term = array( 'term_slug_1', 'term_slug_2', 'term_slug_3' ); if ( is_product() && has_term( $term, 'product_cat', $post ) ) { $demourl = home_url() . "/preview?theme={$post->post_name}"; $demotitle = esc_attr( $post->post_title ); $class = 'sc-button demo-preview'; $link = '<a href="%s" title="%s" class="%s" rel="nofollow" target="_blank">Демо-сайт</a>'; printf( $link, $demourl, $demotitle, $class ); } } add_action( 'woocommerce_after_add_to_cart_button', 'after_cart_btn_add_preview_btn' );  
  10. campusboy liked a post in a topic by DmitryErmichev in Мобильное приложение для PR-CY.ru   
    В рамках конкурса по разработке приложения для pr-cy создал первый прототип (APK доступен по ссылке). Возможности:
    Выполнение базового анализа сайтов по API. Отображение данных анализа с разбитием по категориям. Сохранение результатов анализа в локальную БД приложения для возможности дальнейшего оффлайн доступа. Подсказки названия доменов из истории при поиске. Возможность создания списка избранных сайтов. Виджет для доменов из списка избранных. Для тестов пока можно использовать мой ключ API: DdnlSYkYxUEFGUmNQaWMrY2w4Z3A0WT0
    О тестах просьба отписываться в эту тему.
     
  11. campusboy liked a post in a topic by Tru in SEO школа разгильдяев   
    Вот теперь ясно откуда скачки и провалы.
    Смена СMS всегда сбивает с толку поисковики.
     
    Относительно карточек товаров
    Как же не посмотрел, вот например
    stilkam.ru/podokonniki-iz-naturalnogo-kamnya
    Н1 ПОДОКОННИКИ ИЗ КАМНЯ
    <title>Подоконники из натурального камня купить недорого в Санкт-Петербурге , цена , монтаж</title>
    <meta name="description" content="Изготовим и установим подоконники из камня на ваш выбор, наша цена вас приятно удивит , а сроки изготовления покажутся мимолетными" >
    Н2 Почему вам нужен подоконник из натурального камня
    Н3  Причины, купить и установить подоконник из натурального камня:
    И еще несколько мелких Н4
    Неплохая статья, правда коротковата и как бы по шаблону сделана
    2756 знаков без пробела
    Но, если это карточка товара, то где цена?
    И где ссылки на другой товар, и услуги из текста статьи?
    Перелинковка отсутствует.
    А ведь внутренние ссылки, так же усиливают страницы сайта как и внешние.
     
    Ну хорошо, вот эта страница является карточкой товара.
     https://stilkam.ru/products/mramor-forest-gold-bidasar
     
      <title>Мрамор Forest (Bidasar) Gold , плитка , слэбы купить в Санкт-Петербурге недорого, цена</title>
      <meta name="description" content="Мрамор Forest (Bidasar) Gold - яркая и колоритная порода с янтарной сочной текстурой. Её расцветка неоднородна, с переливающимися бархатными сияниями" >
    Но, Вы знаете, карточки товара тоже желательно форматировать подзаголовками и перелинковывать между собой.
    Почему же многие магазины этого не делают, например те же Эльдорадо ?
    Там миллионы карточек, а это ручная работа.
    И кроме того у мастодонтов милионные бюджеты на внешние ссылки, и рекламу.
    Но у вас всего полсотни позиций.
    Вручную линканул и порядок.
    И потом внешними ссылками усилил сайт, и будет счастье.
    А тайтлы и description  у Вас нормальные .
    Есть много сайтов гораздо хуже оформленных метатегами.
    Есть немного дублей на сайте.
    Вот дубли по тайтлам

    Дубли по  description

    Тут дело скорее в слабой пернелинковке, мало страниц на сайте, и отсутствии нормальных внешних ссылок.
    Ну самое главное, я же не фельдшер, не самая последняя инстанция.
    Даже у Гуру, например Шакин, Пузат или Баблоруб, уверен, есть свое маленькое кладбище убитых сайтов.
    И даже целые сетки, и дивизии из погибших сайтов.
    Ибо поиск истины зачастую эмпирический эксперимент, вопреки предупреждениям и здравому смыслу.
    С уважением
  12. campusboy liked a post in a topic by Tru in SEO школа разгильдяев   
     
    Приятный нишевый сайт  stilkam.ru, жаль его слегка запустили за последний год.
    Возможно переход на протокол https: так же повлиял на снижение показателей
    Это легко проверить в web.archive.org

    Явные следы запустения в 2017 году после активного 2016 г.
    Основные параметры сайта по сервису ahrefs

    Главная страница сайта не нагружена, внутренними ссылками. Слабая перелинковка на главную и вообще по сайту.
    Обращает внимание полное отсутствие сигналов из соцсетей и низкий органический трафик..
    Статистика по внешним ссылкам, показывает явный перекос  по ссылкам на каждый домен.
    4550 ссылок на 33 домена, в среднем по 138 ссылок на один домен.
    Фактически, сайты доноры вместо поддержки, обпенили сайт легковесными ссылками.
    Причем по видимому, токсичной ссылочной пеной.

     Хотя majestic  этого особо не замечает,  дает сайту сбалансированную трастовую и цитируемую оценку.
    Может это потому,  что у меня кончился платный аккаунт на majestic?
    Кстати обратите  внимание, что последние годы я на ветке не ставлю ссылок на тестируемые сайты.
    Это не только для чистоты эксперимента.
    Хотя ссылка с talk.pr-cy.ru или с серча, вполне авторитетна, но для большинства проектов не тематична.
    Для молодого сайтика может и подойдет для первого  продвижняка, но в будущем  , когда будет борьба за место в ТОП 3 Гугла, это плохо прогнозируемо.
     
    Так и не понял, что за СMS стоит на сайте, возможно самопис, но карточки товаров слабо заполнены и не отформатированы.
    В общем то общие описания категорий неплохие, с ключами в Н2, но опять таки нет внутренней перелинковки.
    А так просится, какой ни будь хитрый анкорчик в ссылке, типа варианты отделки каминов мрамором, или типы мраморных столешниц.
    Кстати, вы знаете, что Сталин любил есть горячие блюда на нагретых мраморных подставках, что бы еда дольше не остывала?
    Отсутствуют заголовки Н2 в карточках товара, и опят таки нет внутренней перелинковки.
    Но ведь надо же как то помогать поисковику.
    Для этого и есть выделение подзаголовков в тексте карточки тегами Н2-Н3,Н4, и обзательно сразу же под внутренним Заголовком надо давать ключевое слово в тексте внутренней ссылки.
    За внутреннюю перелинковку вас не забанят, в отличии от избыточных внешних ссылок.
    Блог одно название.
    Всего три дохленьких статейки.
    А ведь про облицовку мрамором, гранитные ступени, лестницы и отделку камнем можно написать целые поэмы по каждой выполненной работе.
    Ведь портфолио есть, но одни фотки  stilkam.ru/photoalbums  без описаний.
    Хотя Альты в фотках прописаны, это хорошо.
    Ну так и просится под фото дать ссылочку на отдельную статью в блоге, с красивым описанием и ссылками на подобные товары.
    Причем , обязательно пару ссылок дать со статьи не главную,  и 2-5 внутренних ссылки на карточки подобного  товара.
    И видео того же камина горящего неплохо приложить, и видео например подъема или спуска по лестнице.
    Ролики по 30-45 секунд, но они задерживают посетителей на страницах сайта, и это класно для поисковиков.
    Вообще не нашел у вас ссылку на аккаунт в Ютубе, Твитере или Фейсбуке.
    Нехорошо получается, это потери на ровном месте.
     
    Ссылочный профиль уже стабилизировался, несмотря на провал в середине 2016 г.
    Это хорошо видно на прилагаемых графиках ссылающихся доменов и страниц.

    Новые домены не спасают положение, на сайте наблюдается так называемая ссылочная катастрофа.
    Заметьте, что отпадают именно дофоллоу домены.
    А непонятные массовые ссылки с каталогов даже и не страдают.
    Но уже выше говорилось, это ссылочная пена.
     

    Вновь появившиеся домены не несут релевантных ссылок
    Как посмотрел на эти ссылки, чуть не обрыдался, последние были аж в сентябре 2017 г.

    Неужели тяжело раз в месяц зайти на пару релевантных форумов или блогов и оставить внятный комментарий на пару сотен слов?
    Да только по отделке и строительству их тысячи.
    Особенно в США и Европе.
    Да и в Рунете тысячи админов строй и дизайнерских  сайтов, сидят и ждут нормальных комментов, особенно с фотками.
    Вообще,  облако анкоров  похоже на градобойную тучу, но не благотворный ссылочный дождик.

    В общем рекомендации простые, сделать внутреннюю перелинковку.
    В некоторых текстах и особенно в карточках товаров добавить Н2
    Согласовать ключевики в description и Н1 Н2.
    Эти же кейворды внести во внутреннюю перелинковку.
    И добавьте текстов на блог.
    Девоньки на фриланс биржах вам за мало денег напишут целые поэмы про облицовку каминов мрамором , а уж про столешницы и ванные комнаты, ни один мужик так не наваяет.
    Пользуйтесь моментом,  что у Вас сайт не на тему  матриц к ноут букам,  или скажем по электромоторам. Там борзописные дамы бессильны.
    Только семантику аккуратно подберите для копирайтеров, и стоп слова
    Тут важно проявить не только спокойную силу, но и разумные минус слова..
    Что бы не попасть в просак, как Депардье с Рокко Сиффреди
    И это Депардье, который дороге в Канны обоссал, удобрил весь бизнес класс в салоне аэробуса, почти на высоте стратосферы, по дороге в Канны.
    Нам насчет такой силы до Депардье с Рокко Сиффреди далеко, поэтому работаем с семантикой осторожно!

    Осторожно, youtube.com 18+ SEO детям по ссылке Рокко Сиффреди не ходить!
    Берем по вашей тематике пример с  Рокко Сиффреди (супер порно актер) которого часто путают в гугле и ру нете с популярной тротуарной плиткой Рокко, (брусчатка Рокко, кстати родственная вашему сайту тематика) и даже сортом картошки Рокко.
    Поэтому не стоит составлять семантическое ядро без минус слов.
    Минус слова иногда даже важнее чем продвигаемые кейворды.
     
    Перейдем ко  второй уязвимости сайта, внешним ссылкам.
     
    Как вещает  Шакин из своей Сибири, сделайте ссылочную пирамидку, под названием удар Шершня, или там Дракона какого нибудь. (это такие приколы у Шакина)
    В общем просто все. Надо бы пяток сайтов на разных хостах прикупить, что бы не спалить сетку из прокладок.
    И на них уже лить ссылки, пусть даже ссылки с аккаунтов и ссылочной пеной.
    Пройдет несколько месяцев и эти сайты наберут авторитета, и передадут на вас свой рейтинг.
    И этот рейтинг, с годами будет только усиливаться.
    Я например предпочитаю продвигать сайты уже бывалыми доменами, с историей и ключевиком в названии домена.
    Вот тут на соседней ветке мы по дружески оппонировали по теме.
    Хотя это считается и спорным решением, но уж если регать домен, то хотя бы уже  с хорошим куском ссылающихся на него сайтов.
    Ну, предположим он отпадет через год, что бывает редко, при аккуратном продвижении.
    Но все равно, дропнутый домен это больше гарантии постоянства, и больше ссылочного веса, чем даже ссылка с вашей уникальной статьи, скажем размешенной  на сайте в Миралинксе.
     
    Вообще тему  внешних ссылок, желательно обсуждать во внутренней переписке.
    Ибо Платоны, Гуглы и ваши конкуренты тоже читают эту ветку.
    В общем, так кратенько наваял уникального SEO текста в обзоре много более,  чем  на 5 килознаков.
    Но глубже копать, это уже надо платную софтину подключать,  и мозг грузить не один день.
    Вообще сайт мне очень понравился, эстетичный, по делу оформленный.
    Но слегка недоработанный.
     
    Желаю автору и всем коллегам удачи в SEO!
     
     
     
     
     
     
     
     
     
     
     
     
     
     
  13. ikonopeshko liked a post in a topic by campusboy in Раздельный вывод описания рубрик Wordpress для SEO   
    Всем привет. Не уверен, что название темы верное, но близко, я думаю. Итак, порой, чтобы продвинуть какую-то рубрику, к примеру, "Фильмы ужасов", нужно на её страницу вставить seo-текст. Такое я вижу частенько. Идет или простыня текста перед выводом списка фильмов или после. На мой взгляд, это не гуд. Приятнее было бы, если в 1 части (до списка фильмов) была "Зазывалочка", какой-то интересный небольшой текст, который захочется прочитать (увеличение ПФ), который призван начать выбор фильмов. Также надо для ПС набить ключевиков и небольшого абзаца маловато для этого, потому после списка фильмов желательно вывести ещё текста. С подобной целью столкнулся, готовых решений не искал, решил попрактиковаться. После разных вариантов пришел к тому, что выложу сейчас. Добавляется в function.php:
    function manual_insert_description () { $description = term_description(); #Получаем описание категории/метки/произвольной таксономии (далее Рубрика) $separator = "<p><!--more--></p>"; #Пишем тег, который использовали в описании в месте разделения текста static $cnt_get_insert_description = 1; #Сколько раз вызывалась функция? Изначально 1 раз. # Если описание рубрики имеется и функция вызывалась не более 2 раз - начинаем обработку if ($description and $cnt_get_insert_description <= 2){ list($description_start, $description_end) = explode($separator, $description); #Разбиваем текст на две части и помещаем в переменные /* Если имеется 1 часть описания и это первый вызов функции - выводим первую часть. Пример использования в шаблоне: <?php manual_insert_description ("Первая часть описания"); ?> */ if ($description_start and $cnt_get_insert_description == 1){ echo $description_start; #Вывод } /* Если имеется 2 часть описания и это второй вызов функции - выводим вторую часть. Пример использования в шаблоне: <?php manual_insert_description ("Вторая часть описания"); ?> */ if ($description_end and $cnt_get_insert_description == 2){ echo $description_end; #Вывод } $cnt_get_insert_description++; } } Код специально сделан максимально развернут и прокомментирован, чтобы и новички смогли его использовать. Предположение про SEO-эффект теоретическое.
     
    После сохранения, нужно теперь в файле шаблона прописать эту функцию, к примеру, в category.php. Один раз там, где надо вывести 1 часть (к примеру перед циклом вывода постов), и второй раз там, где надо вывести вторую часть описания (например, после цикла вывода постов). В функцию manual_insert_description () можно ничего не передавать или вписать любой текст по желанию, чтобы было удобнее читать потом код. При её первом вызове выведется 1 часть описания, при втором - вторая, при третьем и далее - не произойдет ничего.
     
    Функция тестировалась при следующих условиях и работает корректно:
    Нет тега More Текст - More - Текст More - Текст Текст - More Нет описания Тег можно заменить на любой, абсолютно любой текст, лишь задайте его в переменной $separator. Стоит предупредить, что если вписать, к примеру "wordpress", то функция будет искать именно эти совпадения и сохранять в переменные, что может привести к некорректному выводу. Вывод: используйте для разделения  какую-либо оригинальную неповторяющуюся нигде фразу.
     
    Добавление описания рубрики (и подобных) происходит при её создании или редактировании. Вызывать функцию можно на странице рубрики, тега, произвольной таксономии, в общем там, где можно предусмотрено "описание" движком.   Эпилог: понимаю, что код тривиальный, но, возможно, кому поможет быстро решить вопрос, который встал у меня. Если есть вопросы, предложения, поправки - рад буду услышать. Кстати, пробовал вешать хуки, чтобы вообще нигде потом в шаблоне не вызывать функцию, но получается успешно лишь в случае наличия статей в рубрики. При других вариантах описания улетают, к примеру, в блок "Популярные записи". Ищу решение пока что.
  14. ikonopeshko liked a post in a topic by campusboy in Раздельный вывод описания рубрик Wordpress для SEO   
    Всем привет. Не уверен, что название темы верное, но близко, я думаю. Итак, порой, чтобы продвинуть какую-то рубрику, к примеру, "Фильмы ужасов", нужно на её страницу вставить seo-текст. Такое я вижу частенько. Идет или простыня текста перед выводом списка фильмов или после. На мой взгляд, это не гуд. Приятнее было бы, если в 1 части (до списка фильмов) была "Зазывалочка", какой-то интересный небольшой текст, который захочется прочитать (увеличение ПФ), который призван начать выбор фильмов. Также надо для ПС набить ключевиков и небольшого абзаца маловато для этого, потому после списка фильмов желательно вывести ещё текста. С подобной целью столкнулся, готовых решений не искал, решил попрактиковаться. После разных вариантов пришел к тому, что выложу сейчас. Добавляется в function.php:
    function manual_insert_description () { $description = term_description(); #Получаем описание категории/метки/произвольной таксономии (далее Рубрика) $separator = "<p><!--more--></p>"; #Пишем тег, который использовали в описании в месте разделения текста static $cnt_get_insert_description = 1; #Сколько раз вызывалась функция? Изначально 1 раз. # Если описание рубрики имеется и функция вызывалась не более 2 раз - начинаем обработку if ($description and $cnt_get_insert_description <= 2){ list($description_start, $description_end) = explode($separator, $description); #Разбиваем текст на две части и помещаем в переменные /* Если имеется 1 часть описания и это первый вызов функции - выводим первую часть. Пример использования в шаблоне: <?php manual_insert_description ("Первая часть описания"); ?> */ if ($description_start and $cnt_get_insert_description == 1){ echo $description_start; #Вывод } /* Если имеется 2 часть описания и это второй вызов функции - выводим вторую часть. Пример использования в шаблоне: <?php manual_insert_description ("Вторая часть описания"); ?> */ if ($description_end and $cnt_get_insert_description == 2){ echo $description_end; #Вывод } $cnt_get_insert_description++; } } Код специально сделан максимально развернут и прокомментирован, чтобы и новички смогли его использовать. Предположение про SEO-эффект теоретическое.
     
    После сохранения, нужно теперь в файле шаблона прописать эту функцию, к примеру, в category.php. Один раз там, где надо вывести 1 часть (к примеру перед циклом вывода постов), и второй раз там, где надо вывести вторую часть описания (например, после цикла вывода постов). В функцию manual_insert_description () можно ничего не передавать или вписать любой текст по желанию, чтобы было удобнее читать потом код. При её первом вызове выведется 1 часть описания, при втором - вторая, при третьем и далее - не произойдет ничего.
     
    Функция тестировалась при следующих условиях и работает корректно:
    Нет тега More Текст - More - Текст More - Текст Текст - More Нет описания Тег можно заменить на любой, абсолютно любой текст, лишь задайте его в переменной $separator. Стоит предупредить, что если вписать, к примеру "wordpress", то функция будет искать именно эти совпадения и сохранять в переменные, что может привести к некорректному выводу. Вывод: используйте для разделения  какую-либо оригинальную неповторяющуюся нигде фразу.
     
    Добавление описания рубрики (и подобных) происходит при её создании или редактировании. Вызывать функцию можно на странице рубрики, тега, произвольной таксономии, в общем там, где можно предусмотрено "описание" движком.   Эпилог: понимаю, что код тривиальный, но, возможно, кому поможет быстро решить вопрос, который встал у меня. Если есть вопросы, предложения, поправки - рад буду услышать. Кстати, пробовал вешать хуки, чтобы вообще нигде потом в шаблоне не вызывать функцию, но получается успешно лишь в случае наличия статей в рубрики. При других вариантах описания улетают, к примеру, в блок "Популярные записи". Ищу решение пока что.
  15. campusboy liked a post in a topic by diplomdistant in Куплю тексты связанные с Мототехникой   
    да здесь как бы не биржа статей ....живут туточки несколько копирайтеров, но не разу не слышал, что у них 1,5 тонны статей про мото с столе лежали...
  16. campusboy liked a post in a topic by Ninoi in Спарсили сайт   
    Зарегистрировать клон-сайт в ПС. Подтвердить права добавив код подтверждения в свою страницу, он и на клоне появится. После подтверждения удалить клоновые URL-адреса из индекса.
    https://support.google.com/webmasters/answer/1663419?hl=ru
    С Яндексом чуть сложнее - надо создать robots2.txt
    User-agent: *
    Host: site-klon
    Disallow: /
    и дописать в htaccess
    <IfModule mod_rewrite.c>
    RewriteEngine on
    RewriteCond %{HTTP_HOST} ^.*site-klon\.ru$ [NC]
    RewriteRule ^robots\.txt$ robots2.txt
    </IfModule>
    Поосле чего https://webmaster.yandex.ru/tools/del-url/
  17. campusboy liked a post in a topic by files in Вирусная вставка на вордпрессе   
    В версии ниже 6.7.2  темы «Newspaper» присутствует узязвимость, с помощью которой можно POST запросом через admin-ajax.php изменить настройку темы, создать администратора на сайте и т.д.
    Эта уязвимость была устранена в версии 6.7.2. Поэтому стоит обновить тему. Тем более, уже вышла версия 8.0 темы «Newspaper»
    https://faqwp.com/question/uyazvimost-na-wp-sayte-veshayut-reklamu
  18. campusboy liked a post in a topic by files in можно ли попасть в яндекс.новости и в гугл.нювс, толька с видео новостями?   
    В ЯН чуть больше 6500 СМИ, все они здесь https://news.yandex.ru/smi (легко можете проверить свою гипотезу)
    Сомнительно, что на форуме вы найдете представителей небольшого телеканала, которые добавились в ЯН.
  19. campusboy liked a post in a topic by Воланд in Предупреждение: остерегайтесь UCOZ сайтов   
    Ребят, на дворе 2017 год..какой Укоз? Хостингов за 50 рублей пруд пруди...даже если ты бедный школьник, то выпросить у мамки 50 рублей в месяц, думаю, не составит труда
  20. campusboy liked a post in a topic by Shnapik in Joomla или WordPress   
    Все чисто индивидуально... Но вставлю несколько копеек своих... Про халявные модули и шаблоны, а также платные аналоги и доработки не буду говорить...
     
    WP - попроще в освоении и допиливании будет, joomla в этом плане посложнее, но это не критично. У joomla в отличии от WP с нагрузкой плоховато, многопосещаемые сайты могут грузить сервер сильнее чем WP. Замечал такое, но опять же если настроить грамотно всё, то нагрузка будет примерно одинаковая.
    Вопрос не очень актуальным является я бы сказал... Тут надо ставить и пробовать... Как удобнее будет, как проще, как быстрее, как интереснее сделаете...
    Сайт - это как ребенок, как ты его настругаешь такой он и будет... Не важно какая CMS, если руки крюки, то и сайт будет на топовом движке не очень мягко говоря...
  21. campusboy liked a post in a topic by node.js in Нужен прогер   
    Да? А если погуглить по запросу "тетрис"?
    Проблема в том что игра пишется и работает на разных языках и одному человеку очень сложно знать всю подноготную по разным языкам.
    Тут нужно и java программист, и программист для создания API, баз данных, системный администратор и т.д. Хотя если для 100 человек пишется игра то можно и сократить до минимума штат работников.
    Я пишу в надежде на то что предложенная игра будет чем то стоящим, а не тем что скачают и удалят. Хотя все равно это сложный вопрос, и быть может для начала пойдет все по минимуму, но если стрельнет проект то он с вероятностью в 100% будет лежать на лопатках и ждать когда же его системный админ вновь поднимет, а переделывает сие убожество уже будет очень накладно и проблематично, поэтому в нормальных играх участвует целый штат разработчиков профессионалов отвечающих за определенные цепочки кода и т.д.
    К тому же если идея действительно стоящая и проект вы напишете на "коленке", будьте уверены кто нибудь возьмет вашу идею и сделает ее по человечески, даже глазом моргнуть не успеете как про вас все сразу же забудут.
  22. campusboy liked a post in a topic by webostrov in Апдейт поисковой выдачи 14.06.17   
    Да было такое, письма в четвертом часу ночи поприходили на сайты.
    Вот пару примеров:
    Всего страниц на поиске: 14851. Добавлено страниц: 20. Удалено страниц: 3. и еще
    Всего страниц на поиске: 2656. Добавлено страниц: 90. Удалено страниц: 212. Платоны выпили нового пива (явно не ноль), и тестируют очередные алгоритмы. Это нормально ))
    У меня на позапрошлой недели 2/3 сайта ушло - потом вернулось на новый ап ))
    В общем, не расстраивайтесь - бывает
     
  23. Shnapik liked a post in a topic by campusboy in Много вопросов по WordPress   
    Вот предлагают решение:
    /** * Disable responsive image support (test!) */ // Clean the up the image from wp_get_attachment_image() add_filter( 'wp_get_attachment_image_attributes', function( $attr ) { if( isset( $attr['sizes'] ) ) unset( $attr['sizes'] ); if( isset( $attr['srcset'] ) ) unset( $attr['srcset'] ); return $attr; }, PHP_INT_MAX ); // Override the calculated image sizes add_filter( 'wp_calculate_image_sizes', '__return_false', PHP_INT_MAX ); // Override the calculated image sources add_filter( 'wp_calculate_image_srcset', '__return_false', PHP_INT_MAX ); // Remove the reponsive stuff from the content remove_filter( 'the_content', 'wp_make_content_images_responsive' ); Как Вы искали, ведь в Гугле куча решений по этому вопросу?