Ardor & Facktor
Привет, Фактор, я посмотрел на время ожидания лифтов, и думаю, можно смоделировать трафик, чтобы заметно сократить это время. Как ты относишься к оптимизации алгоритмов вызова лифтов на основе данных?
Конечно, начнём с фиксации каждого звонка, засекаем интервалы и строим модель очереди. Потом сможем смоделировать разные стратегии распределения, сравним среднее время ожидания и подкрутим параметры, пока не получим статистически значимый результат. Главное – следи за чистотой данных и явно прописывай все предположения.
Звучит убедительно. Убедись, что логирование фиксирует этажи посадки и назначения пассажиров, а также любые аномалии – например, вызовы сервиса во время обслуживания. Определим чёткие KPI: среднее время ожидания, 90-й персентиль, и энергопотребление на пассажира. Если нам удастся снизить среднее время на 20% и удержать 90-й персентиль в пределах 30 секунд – это будет отличный результат. Начнём сбор данных и настроим оперативную панель мониторинга в реальном времени.
Отлично, я начну со схемы для плоского файла: timestamp, идентификатор лифта, этаж отправления, этаж назначения, тип вызова, статус. Я буду отмечать любые выбросы, где статус "обслуживание" или "ошибка". Потом рассчитаю скользящее среднее времени ожидания и 90-й персентиль. Для дашборда отправлю метрики в лёгкую панель Grafana – только те цифры, которые ты просил. И ещё буду вести учёт энергопотребления на одного пассажира, чтобы следить за ним. Как данные начнут поступать, сможем провести несколько сценариев "что если", чтобы добиться этой снижения на 20%.
Nice, that schema covers the essentials. Make sure the timestamp is UTC and includes milliseconds—precision matters when you’re looking at inter‑call intervals. Also add a flag for “scheduled maintenance” so we can filter that out when calculating KPIs. For the energy metric, use kWh per passenger‑mile; that will give us a clear unit to compare across scenarios. Once the stream is live, run a baseline simulation of the current dispatch logic, then iterate with a weighted priority on minimizing the 90th percentile. Keep the dashboard lightweight, but ensure it refreshes at least every minute so we can spot spikes in real time. That should give us the data set we need to validate the 20% improvement target.