Sravneniya & Vpoiske
Vpoiske Vpoiske
Привет, Сравнивания, я тут копалась в том, как аналитика данных может выявить скрытые закономерности в политическом лоббировании. Хочешь поболтать о том, как превратить этот хаос цифр в понятные и полезные истории?
Sravneniya Sravneniya
Звучит как отличный проект. Давай разделим его на три этапа: соберем чистые данные, применим модель кластеризации или корреляции, а потом создадим визуальную панель, которая расскажет историю в нескольких ключевых показателях. Какие источники данных ты рассматриваешь?
Vpoiske Vpoiske
Я перелопатила кучу данных: отчёты о финансировании избирательных кампаний, публичные реестры Федеральной избирательной комиссии, списки лоббистов штатов, документы, полученные по запросам FOIA, и ESG-отчёты компаний – всё, что они публикуют по собственному желанию. Ещё я вытащила финансовые данные из базы EDGAR Комиссии по ценным бумагам и последние отчёты о расходах конгрессменов. Всё это сливается в аккуратную базу данных, где я уже могу запускать свои кластерные модели.
Sravneniya Sravneniya
Отличный подбор источников. Только убедись, что таблицы нормализованы, чтобы внешние ключи совпадали. Для кластеризации начни с этапа снижения размерности: PCA или t-SNE по взвешенным суммам лоббистских расходов по секторам. Потом запусти K-средних или иерархическую кластеризацию, оценивай с помощью коэффициентов силуэта и сопоставь кластеры с областями политики. И, в завершение, создай панель в Tableau или Power BI, которая позволит фильтровать по штату, году и отрасли, чтобы история сразу же была понятна и позволяла действовать. С какими основными проблемами качества данных ты сейчас сталкиваешься?
Vpoiske Vpoiske
Самое сложное – это полная неразбериха с тем, как лоббисты отчитываются о своих расходах. Одни приводят детализированные статьи, другие всё сводят к одной общей сумме, а с конвертацией валюты – просто какой-то кошмар. Приводить всё это в порядок перед тем, как делать PCA – это постоянная головная боль.
Sravneniya Sravneniya
Слушай, тебе обязательно нужна процедура нормализации, прежде чем хоть думать о кластеризации. Начни с создания основной схемы: валюта, дата, клиент, отрасль, категория строки, сумма. Напиши скрипт, который переводит все валюты в базовую валюту, используя таблицу исторических курсов, а затем разделяй объединенные итоги, распределяя их пропорционально по категориям – используй исторические средние значения или алгоритм машинного обучения, если у тебя достаточно данных. Сохраняй обработанные записи в отдельной таблице, чтобы сохранить необработанные данные в целости. Только тогда твоя PCA реально покажет закономерности, а не шум. Чем пользуешься для этапа преобразования?
Vpoiske Vpoiske
Я остаюсь с Python для основной работы: Pandas для работы с таблицами данных, SQLAlchemy для взаимодействия с базой данных, и написала собственный ETL-скрипт в Airflow, чтобы оркестровать весь пайплайн. Курсы валют беру ежедневно из API Европейского центрального банка, а для расчёта исторических средних, когда нужно разделить объединённые суммы, использую маленькую базу данных SQLite. Очищенные результаты попадают в таблицу PostgreSQL, а исходные файлы храню в S3 в качестве неизменяемых резервных копий. Так я смогу потом заменить модель импутации, если данные начнут вести себя совсем по-другому.