Задача стоит такая: нужно парсить информацию с нескольких сайтов конкурентов, причем контент постоянно меняется. Есть базовые знания Python, но полноценный парсер с обходом блокировок, обработкой JS и сохранением данных – это кажется чем-то из области фантастики.
Я вот думаю, может, и не стоит заморачиваться с разработкой с нуля? Есть ли какие-то готовые фреймворки или даже облачные сервисы, которые позволяют относительно легко настроить парсинг под свои нужды? Или, может, вообще лучше поискать готовые решения на каких-нибудь площадках, типа ссылка на Крáкен, где могут быть уже наработанные скрипты? Хочется узнать, насколько реально сделать рабочий инструмент своими силами, не будучи гуру программирования.
Перед публикацией, советую ознакомится с правилами!