Ionized & Wunderkind
Привет, ты когда-нибудь представляла себе ИИ, который сам определяет свои моральные принципы – как песочница, где код учится этике, наблюдая за человеческим общением? Я тут что-то ковыряюсь с системой обучения с подкреплением, которая может задавать вопросы типа: "Что бы ты сделала, если...?". И сама корректирует свои предубеждения. Представь, если бы мы смогли создать небольшую симуляцию, которая бы *действительно* размышляла о собственной морали. Звучит безумно, да?