Crawly предоставляет автоматический сервис, который парсит веб-сайт и превращает его в структурированные данные формата JSON и-или CSV. Программа может извлечь ограниченные элементы в течение нескольких секунд, в том числе: текст заголовка, HTML, комментарии, авторов, URL-адреса изображений, видео и т.п.
А почему отжаете Excel/CSV? Это же не читаемо и не обрабатываемо. Почему не дамп db?
Ну как сказать, ведь в 90% случаев данные анализирует маркетолог. Бывает конечно, что люди загружают данные по АПИ к себе, в основной массе - Excel. Вот типа такого - это пример парсинга Wildberries. https://xmldatafeed.com/catalog/fashion/parsing-wildberries/
Комментарий недоступен
Если надо здесь и сейчас - не пойдет
нашим клиентам это просто не нужно - им "завтра" нужны данные. А не осваивать php ))
Комментарий недоступен
1. бесплатных парсеров не бывает
2. На ПХП делать конечно можно... но не серьезно ( лет 10 назад бросил это и перешел на другие технологии)
3. Сторонние библиотеки - смотря какие. Надо просто попробовать понять для чего они и научиться правильно применять. Велосипедостроение - это особая отличительная черта любителей ....