Статьи
Практический опыт в разработке, автоматизации и технологиях
Web scraping для бизнеса: когда парсинг законен, а когда дешевле не начинать
На 4-й день после релиза у нас был дашборд цен конкурентов, который выглядел образцово: сборщик на Python 3.12 работал по расписанию, Celery не шумел, алертов не было. Проблема сидела в данных: пос...
Парсер Авито для аналитики: когда он нужен бизнесу, а когда вы просто затеяли лишнюю разработку
У меня был проект с дистрибьютором, где менеджер каждое утро открывал Авито, проходил 5 категорий в 3 городах и руками сводил цены в таблицу. На это уходило 2-3 часа в день, то есть 40-60 часов в м...
Парсинг цен конкурентов: как автоматизировать мониторинг и перестать принимать решения по вчерашним данным
В одном проекте для оптового продавца электроники менеджер два дня в неделю сводил цены конкурентов в Excel. Пока таблица доходила до руководителя, часть акций уже заканчивалась, а по трем ходовым ...
Парсинг сайтов для бизнеса: когда он экономит деньги, а когда лучше не начинать
Я не раз видел, как бизнес приходил за «парсером», а уходил с другой схемой: где-то хватало API, где-то - выгрузки раз в неделю, где-то - своего сервиса. Смысл читать дальше простой: парсинг - это ...
Облачный парсер или свой скрипт: как не переплатить за сбор данных с сайтов
На одном проекте для дистрибьютора стройматериалов мы за 8 дней подняли сбор цен с 14 сайтов через облачный scraper. На демо все выглядело аккуратно: расписание, выгрузка в Google Sheets, webhook в...