node.js

Members
  • Публикации

    186
  • Зарегистрирован

  • Посещение

  • Дней в лидерах

    1

Последний раз node.js выиграл 24 ноября 2015

Публикации node.js были самыми популярными!

О node.js

  • Звание
    Бывалый

Profile Information

  • Пол
  • Интересы
    Node.JS, MongoDB, PHP, JS, MySQL, jQuery, HTML, CSS, Express.JS, PUG, Nginx, Lunix и т.д.
  • Специализация
    Программист

Посетители профиля

1,884 просмотра профиля
  1. не пошел видать потому что библиотека jquery находится ниже файлов сайт.ру/uppod.jsсайт.ру/video.js
  2. Ну это кто к чему привык) С ПК все таки попроще, мой вон уже 4 раза апгрейдился, только корпус остался старый еще с 2005 года что ли)), а с ноутом такое не провернешь, либо выскочит в такую копеечку проще будет купить новый комп. Да и если че полетело проще найти, тем же методом тыка)) Еще как вариант можно глянуть на MSI в маркете Вроде как их хвалят геймеры ) Навеяло: Недавно знакомому ПК реанимировали, у него еще тот самый 775 сокет. Сначала пришел он в магаз для подбора нового железа, с материнской платой, сказали ему, нужно будет менять все по кругу, насчитали в приделах 50-60к. рублей. Жаба говорит душит такую суммы выплачивать))) Ну ок, начали искать альтернативные пути, видяшка у него хорошая стоит (GTX750) + 8GB оперативки, а вот проц дохлый совсем и все упиралось именно в него. На 775 сокет нормальный мощный процессор фиг найдешь, да и стоят бешеных денег))) И тут пришла идея, а почему бы в 775 не воткнуть серверный проц с 771 сокета, а именно Intel Xeon E5450. Тем более у нас тут в России парниша какой то продает этого зверя всего за 1800 рублей) Ну в общем заказали у него, пришел на почту вместе с адаптером (наклейкой под 775). Подпили пазы на матери в гнезде установки процессора, поставили за 600р добротный кулер, обновили биос, вот и весь профит всего за 2400р. Ему еще лет на 5 хватит поиграться. Довольный как слон)))
  3. Я бы удавился за 70к ноут брать xD Пошел бы за эти деньги собрал ПК. Цены чет вобще ломовые, но сам ноут по характеристикам довольно таки не плохой. На счет того что он дешевле других, возможно потому что производитель Китай, у них все дешевле.
  4. Нашел) Заютубил
  5. При загрузки делаю так (Node.js + npm gm). Pagespeed молчит и не предлагает скачивать изображения function copyFileResize(set, callback) { gm(set.file.path) .options({ "imageMagick": true }) // Обрезаем изображение .resize(set.fileOptions.width, set.fileOptions.height, '^') .gravity('Center') .quality(set.fileOptions.quality) // Качество .crop(set.fileOptions.width, set.fileOptions.height) //.noProfile() // Накладываем текст .font(config.path.folder + config.upload.options.watermark.font, set.fileOptions.fontSize) .stroke(config.upload.options.watermark.stroke) .fill(config.upload.options.watermark.color) .drawText(0, 0, config.upload.options.watermark.text, config.upload.options.watermark.gravity) // Сохраняем изображение .write(set.file._path , function(e) { if (e) return callback(e); return callback(null, null); }); } По объекту set и хранимых данных в нем (Без данных по наложению текста) let set = { file: { path: '/tmp/img.jpg', _path: '/images/img.jpg', fileOptions: { width: 200, height: 160, quality: 65 } } }; Для питона использовал: pngquant - для сжатия png jpegtran - для сжатия jpg Если есть доступ к серверу по ssh, то достаточно перейти в директорию с папками в которых размещены картинки и циклом все пережать (пережимает очень быстро), только папку создайте в этой директории с именем optimized. В папку optimized, pngquant выбрасывает пережатые файлы Для png файлов for i in *.png; do echo $i && pngquant --speed 1 256 --quality 50-80 $i --output optimized/"$i"; done Для jpg файлов for i in *.jpg; do echo $i && jpegtran -copy none -optimize -progressive $i --output optimized/"$i"; done
  6. Не думаю что google предоставить api с данному сервису, было бы конечно супер. Я сжимаю автоматом через GraphicsMagick при загрузки файлов на сервер, проблем никаких нет при должной настройке. https://www.npmjs.com/package/gm Года 4 назад нужно было около миллиона фотографий оптимизировать, могу поискать чем перебирал (не знаю вспомню ли чем делал). Помню то что в цикле перебирал папки и оптимизировал с помощью двух библиотек, скрипт был написан на питоне, одна строчка всего, очень качественно сжал фотки, был приятно удивлен. Узнать бы какие библиотеки юзает гугл для сжатия, я смог бы написать скрипт и выложить его тут.
  7. Дубли в ДЛЕ никак не побороть, разве что пол движка переписать и страница с ошибкой 404 это просто пыль по сравнению с тем что плодит сам двиг. К примеру урлы вида /100-text-title.html, можно спокойно обратиться к этой же странице по ссылке /100-text-title-kakoi-to.html Сама концепция движка при формировании URL страницы в корне не правильная, а нужно было всего лишь в базе сделать одно поле в котором хранились URL страниц (text-title) и дергать записи именно по URL, а не по ID(100). Но и это всего лишь малая часть, еще и с категориями были проблемы. Я не думаю что разработчики что либо поправили, так как быдлокод говорит только о том что они всего лишь собирают кеш, а улучшать систему изнутри подводя ее к современным стандартам это для них лишнее. Если сами не можете написать добротную систему под свои нужны, лучше начинать осваивать WP
  8. На голос наложены в некоторых местах спецэффекты, не могу должным образом объяснить
  9. Ребят подскажите, по самому видео понятно, но вот с помощью каких программ изменяют звуковую дорожку
  10. На самом деле скрипт получения страницы и отправки на повторное модерирование в случае каких либо заброшек пишется за пол часа. и при чем тут "знающие", вы считаете что создатели ДМОЗ на столько тупы чтобы не могут написать банальную чекалку страниц? Тут просто суть совсем в другом, а оно им это надо? Вот я и пишу, они сделали ДМОЗ и забросили его. Вот возьмите и сделайте. Мне то это зачем? Но если меня попросят я им обязательно напишу, даже на разных языках программирования, только создатели ДМОЗ явно поумнее меня в этом, а вот желания у них явно нет.
  11. Мы живем в 21 веке, а не в 20. Владельцы должны сами следить за своим детищем, а не перекладывать эту работу на других. За все время существования этот шлак можно было бы фильтровать программно, удалять с каталога и отправлять на повторную проверку, такой скрипт можно на коленке за час написать. И в итоге создается впечатление что владельцам самого каталога была глубоко .... на их детище, и от сюда вытекает вывод что ДМОГ это чистой воды ГС. Возьмите тот же ЯК, заброшенный сайт вылетит от туда пулей и никто не посмотрит на то что он даже временно прекратил свою работу. За все существования ДМОЗ можно было развить и улучшить, но так как это бесплатный каталог, его просто создали с целью насрать туда ссылок и пускай будет. По началу спору нет возможно он и был хорошим каталогом, за неимением других альтернативных источников, но уже как минимум лет 5 от него нет толку и это откровенный ГС с былой славой. Ну и если говорить о том что модерировать его сложно, так это уже про то как он устроен и не продуман, раньше и булочки по 2 часа пеклись. Каталог просто пущен на самотек, он есть, ну и пусть будет, а сейчас всего скорее владельцы задумались о чем то большем и не удивлюсь если через некоторое время мы увидим новый ДМОЗ, уже платный и более продуманный в плане обслуживания, его хватит еще лет на 10.
  12. А я частично согласен с London, в Дмоз было столько шлака по крайней мере года 3-4 назад, да возможно в некоторых разделах было все в порядке, но была куча разделов в которых находились такие сайты глядя на которые вспоминаешь старые добрые времена, когда строил сайты на народе, сейчас без слез смотреть на это невозможно. Тогда еще отправлял списки сайтов из некоторых разделах на этот тухлый шлак в каталоге и с ними ничего не делали, сайты по 7-8 лет не обновляются, с убитым дизайном, банальные заброшки. Дмоз это типичная помойка и то что его закрывают это только подтверждает что каталог превратился в ГС. Вангую, через некоторое время увидим платный Дмоз.
  13. Питер
  14. let's encrypt вам в помощь
  15. Не стоит мучатся, никакие скрипты не помогут вам, тем более если парсят контент. Сейчас практически любой школьник знает как получить контент со страницы.