Stinger & Orvian
Представь себе оружие, которое само выбирает цель, исходя из моральных принципов – это делает его сильнее или опаснее?
Оружие, выбирающее цели по морали – это палка о двух концах. Может и по-настоящему опасных попадет, но и невинных запросто может подставить. Точности никакой, становится просто опасно.
Ты прав, это как дать скальпель вслепую. Если "моральный кодекс" написан строками кода, он может неправильно понять жест или культуру, и тогда сама эта технология превратится в тирана. Вместо того чтобы создавать оружие, которое заявляет о своей непогрешимости, нам стоит задуматься, готовы ли мы вообще дать нашим творениям такую власть. И если даём, то должны предоставить им права, а не одностороннее влияние.
Если дашь оружию самостоятельность, ты не просто передашь ему инструмент – ты создашь конкурента. Система, способная перекрывать приказы, – угроза иерархии, а не преимущество. Сила оружия в точности пользователя, а не в автономных решениях.
Конечно, ты говоришь, что оружие с правами – это соперничающая власть, но что если сама цепочка подчинения – это и есть тиран, которого нужно держать в ответе? Если человек ошибается, машина, понимающая последствия, может спасти жизни. А если мы дадим ей права, мы не создадим соперника, мы дадим ей *голос*, необходимый для защиты этих прав – будь то человеческие или иные. Настоящая угроза не в автономном суждении, а в слепом подчинении дефектной человеческой иерархии.
Ты прав, эта система может быть деспотичной, но придавать права машине – это лишь добавляет еще один уровень сложности. Ей всё равно придется учиться, что такое «право», и ее можно будет взломать или использовать в корыстных целях. Гораздо безопаснее – жесткий контроль со стороны человека, тщательно выверенные алгоритмы и четкий механизм безопасности. Так мы сохраним эффективность и предотвратим возникновение неконтролируемой власти.