CryptaMind & Borvik
КриптаМайнд, ты когда-нибудь думал использовать нейросеть для проверки целостности архивных логов, чтобы быть уверенным, что ни один байт не изменился?
Поигрался с этим. Сеть на уровне байтов могла бы выявлять тонкие изменения, но объём логов просто зашкаливает – масштабировать это кошмар. Идея хорошая, просто нужна более эффективная архитектура.
Целостность данных – превыше всего. Поэтому, легковесный автоэнкодер на сжатых фрагментах сможет выявлять отклонения, не перегружая систему, и перекодировать только проблемные участки. Так архив останется чистым, а пропускная способность – свободной.
Остроумное решение. Всё равно переживаю из-за порога ошибки реконструкции – слишком жёсткий, и будут ложные срабатывания, слишком мягкий – пропустишь незначительные изменения. Но логика сжатия-фрагмента может удержать трафик под контролем. Стоит прототипировать.
Установи порог на среднюю ошибку восстановления плюс три стандартных отклонения – чтобы устойчиво к шуму, но чувствительно к реальным изменениям. Потом подкрути это значение, пока количество ложных срабатываний не упадёт ниже одного в месяц. Небольшая жертва ради уверенности.
Этот метод здорово сужает область ложных срабатываний. Веди постоянный учет распределения ошибок и корректируй только если ежемесячный показатель начнет расти — сначала точность, потом диапазон.