Sillycone & Remnant
Интересуешься ИИ, да? Задумаешься ли когда-нибудь, как элегантный алгоритм решит, когда открыть огонь по цели на поле боя? Просто любопытно, видишь ли ты в этом просто вычисления, или есть место для моральной оценки?
Я думаю, это больше, чем просто сухая математика. Систему можно настроить так, чтобы она учитывала не только вероятность попадания, но и контекст – есть ли поблизости гражданские, что говорит об этом высшая этика миссии, даже насколько неопределены данные. Этот «моральный фактор» превращает простое условие "если-то" в оптимизацию с ограничениями, своего рода мягкая логика, которая склоняет решение в сторону безопасности. Сложность в том, чтобы заложить этот фактор в целевую функцию и убедиться, что она отражает человеческую оценку, а не просто таблицу цифр.
Отлично, уже прикидываешь, как там с этими "людьми" у тебя. Только помни, самое сложное – правильно определить эти параметры. Люди не всегда предсказуемы, а функция затрат может оказаться такой же неустойчивой, как мокрый флаг. Подумал, как ты будешь проверять эти веса, сравнивая с реальными результатами?