Sanitar & Botar
Привет, Ботар. Я тут подумал, как беспилотные дроны могли бы проводить быструю сортировку пострадавших в зонах бедствия – подумал, может, нам вместе получится что-то придумать. Как ты смотришь на сочетание быстрой диагностики на базе ИИ и реагированием на месте?
Звучит как неплохой план, если удастся настроить сенсоры так, чтобы они в секунду определяли приоритеты. Главное – лёгкая система зрения и быстрый процессор, без задержек от облачных вычислений. Я могу подправить прошивку, чтобы она отмечала жизненно важные показатели и зоны приоритета, а дальше передавать управление наземному роботу для оказания помощи. Только помни о весе, иначе дрон с таким грузом и не взлетит.
Кажется, вполне реально, но интеграция сенсорной системы должна быть очень плотной. Если добавишь слишком много устройств, вес может превысить допустимый предел. Старайся обрабатывать данные локально, возможно, используй лёгкий чип для обработки на периферии и выгружай только второстепенные данные. И убедись, что отсек с полезной нагрузкой может открываться автоматически – ручная работа замедляет реакцию. Если возникнут какие-то трудности, говори. У меня есть несколько маломощных видеомодулей, которые, возможно, подойдут.
Круто. Я уже накидываю эскиз энергоэффективной панели управления, чтобы она весила не больше десяти килограмм. Встроенный AI-чип сможет запускать крошечную нейросеть для мониторинга жизненных показателей и выявлять экстренные ситуации, а остальное, если потребуется, отправлять в облако. Придется подкрутить логику сервоприводов отсека, чтобы он открывался по простой команде и сразу выдавал первый комплект. Если ты сможешь встроить эти модули, мы добьемся идеального результата за считанные минуты. Кидай характеристики, и я начну интегрировать.
Конечно, Ботар. Вот характеристики платы машинного зрения с низким энергопотреблением и чипа edge AI, который я использую:
- Плата машинного зрения: 2x2 см, 25 мВт, датчик 16 МП, 30 кадров в секунду при разрешении 640x480, RGB+IR, встроенная предобработка изображений.
- Чип edge AI: 1 TOPS, 10 мВт, 8-битная фиксированная точка, поддерживает YOLO-Tiny-lite для обнаружения жизненных показателей, 3-осевой IMU, CAN-интерфейс 2 Гбит/с.
- Питание: литий-ионный аккумулятор 3.7 В, 1 Ач, ~5 Вт непрерывное энергопотребление для платы + чипа.
- Вес: плата + чип + проводка ≈ 250 г.
- Программное обеспечение: модель TensorFlow Lite с открытым исходным кодом, время инференса на чипе 5 мс, задержка при подключении к облаку 200 мс при необходимости.
- Сервологика: 6-битное ШИМ, питание 12 В, скорость открытия 50 мм/с, защитная функция для удержания крышки закрытой при потере сигнала.
Общий вес дополнительного оборудования должен оставаться менее 250 г, чтобы полезная нагрузка дрона не превышала 10 кг. Дай знать, если тебе нужен код или какие-то изменения в прошивке.
Спасибо за характеристики, выглядит сложно, но выполнимо. Я подключу плату в 2 см к шине CAN, подстрою модель YOLO-Tiny-lite под пульсоксиметрию и капиллярного наполнения, и настрою сервопривод на автоматическое открытие по сигналу. Дай знать, если прошивке нужны какие-то специфические назначения пинов, или есть пример кода, который можно использовать. Как запущу, протестируем задержку вывода на дроне и посмотрим, как будет вести себя кривая весов в полете.
Окей, прошивка должна подключить плату обработки видео к шине CAN через пины 12 и 13 для TX/RX, и использовать пин 7 для управления сервоприводом. У меня есть пример кода в Git-репозитории – просто скачай репозиторий, собери его с помощью предоставленного makefile и прошей микроконтроллер. После первого теста следи за временем инференса в 5 миллисекунд и отмечай любые просадки в частоте кадров. Если тайминг сервопривода не совпадает с последовательностью запуска, дай знать, подкорректируем ширину ШИМ-импульса. Удачи с лётными испытаниями.
Понял, сейчас тяну репозиторий и прошиваю МК. Буду следить за временем инференса и фреймрейтом, и подкорректирую ШИМ, если будет заметна задержка сервоприводов. Посмотрим, как покажет себя первый полёт.