Вы не вошли.
Анончики, тут когда-то другой анон вел тему "100 дней кода". Как насчет нового челленджа?
я учу питон, в данный момент смотрю туториалы по парсингу.
давайте кодить вместе?
День 1.
Написала первый учебный парсер, который собирает названия товаров и цен на сайте и сохраняет в эксель.
День 2.
Разбиралась с добавлением внешнего цикла в код, который проходит по всем страницам сайта.
День 3.
Смотрела туториалы на ютубе. решила 5 задачек на тренажере letpy.
Попросила нейронки написать мне роадмап для поэтапного изучения парсинга, буду идти по нему.
Читала про get-запросы
День 4.
Делала разные мелкие упражнения: отправка и получение headers, status code, user-agent, работа с файлами, контекстный менеджер with
Почитала про fake_useragent
День 5.
Начала делать учебный парсер логов веб-сервера
Повторение: методы строк, словари
День 6.
Продолжаю ковырять парсер. Что-то я сегодня дико туплю и целый час копалась в цикле добавления ip-адресов в словарь, а потом пыталась понять разницу между объявлением словаря до менеджера with и внутри него.
Разобралась, как работают dict.get() и collections.Counter
День 7.
Написала еще маленький кусочек кода с сортировкой элементов словаря.
Про что читала: sorted(), key=lambda
День 8.
Закончила парсер, начала делать другой, для фильтра get и post запросов
День 9.
Добавила подсчет ошибок 404 и группировку запросов по часам
День 10.
Читала про регулярки. Материлась.
Решила три задачи по регуляркам.
День 11.
Начала писать парсер, который вытаскивает из файла почтовые адреса и телефоны.
Разбиралась с экспортом в csv
День 12.
Разбиралась, как сделать валидацию email (проверить, что домен существует)
День 13.
Добавила в парсер валидацию домена email адресов
Почитала про try-except
Отредактировано (2026-02-26 20:56:14)
День 14.
Продолжила ковырять регулярки, сделала вариант парсера с добычей url адресов и соцсетей
День 15.
Изучала подробнее модуль csv, табличные данные, работу со столбцами
День 16.
Продолжила ковырять csv, написала небольшой учебный парсер, который вытаскивает данные из файла с продажами и собирает статистику.
День 17.
Парсинг погоды с OpenWeatherMap: снова почитала про json формат, структурирование данных, api ключи, вложенные словари и списки.
тренировалась выцеплять с сайта температуру, влажность и прочее, меняя города в get запросе.
День 18.
Разбиралась, как собрать данные для прогноза погоды на 5 дней.
День 19.
Добавила выгрузку данных в json файл и обработку ошибок.
Читала про RSS и XML
День 20.
Написала простой парсер, который собирает заголовки и ссылки на новости из rss-ленты сайта.
Про что читала:
Модуль xml.etree.ElementTree
ET.fromstring()
Доступ к тексту элемента: element.text
Обход дерева XML: .iter()
День 21.
Разбиралась, как написать более сложный парсер - с обработкой сразу нескольких rss-лент и с фильтрацией по ключевым словам.
Про что читала:
усложненный try-except с несколькими проверками
День 22.
Изучала подготовку и преобразование данных для записи в json файл
День 23.
Разобралась, как выгрузить новости и ссылки в файл базы данных.
Про что читала:
SQLite, основная теория по базам данных
День 24.
Начала писать усложненный парсер для сбора информации с новостного сайта.
Вспоминала beautifulsoup и прочие основы.
Отредактировано (Вчера 20:55:25)