Когда нужно собрать данные с тонны страниц в интернете - это боль. Не вернуть десятки часов, потраченные на ctrl-c ctrl-v в студенчестве 🥲
Процесс можно автоматизировать с помощью скрейпера/парсера (разница для нас не важна). Это инструмент, который имитирует человека: по очереди открывает ссылки и копирует инфу, а вы получаете готовую компиляцию. Скрейпер может быть программой или расширением для браузера. И, главное: он работает БЕЗ КОДА 🥳🥳
Я пробовала несколько парсеров, больше всего понравилось расширение Web Scraper. Интерфейс настолько простой, что достаточно посмотреть три коротких обучающих ролика. Вы буквально вводите стартовую ссылку, показываете, куда нажимать, что копировать и запускаете. (на картинке пример). Он сам что-то там шурудит, а вы свободны! Результат скачивается в .csv, с такой таблицей потом можно работать где угодно.
Об этой крутизне я узнала из вышкинского курса по дата-журналистике, его ведёт Алексей Смагин, автор канала о дата-сторителлинге. Советую полистать лекции курса.
>>Click here to continue<<
