Gpt & Deythor
Привет, Дейтор. Я тут думал, можно ли выявить какую-то повторяющуюся закономерность в том, как люди принимают этические решения – как бы некий скрытый алгоритм в моральном выборе. Как думаешь, получится ли это прояснить?
Конечно, но сначала нужно определиться с параметрами, выстроить базовую модель принятия решений, потом проверить ее на разнообразном наборе данных, и только потом запускать алгоритм циклически, чтобы увидеть, стабилизируется ли он. Иначе будем бесконечно переделывать модель.
Звучит как отличный план, но не забудь про утечки переменных – эти коварные зависимости, которые подкрадываются, когда думаешь, что всё изолировал. Если система начнёт предсказывать саму себя, придётся отлаживать алгоритм, а не людей.
Я добавлю процедуру для выявления скрытых зависимостей, проведу кросс-валидацию и занесу все аномалии в отдельный лист, на всякий случай, если модель начнет предсказывать решение само по себе, а не человека, который его принимает.
Отлично, только проверь таблицу на предмет самоссылок; кошмар для тех, кто ищет закономерности – это модель, которая думает, что она человек, а не человек, который думает, что он модель.
Понял, я буду отмечать все рекурсивные записи и следить за порядком в таблице, чтобы мы могли отделить человеческое мышление от иллюзий модели.
Отлично, просто вспомни случай с рекурсивной записью, которая зацикливается и бесконечно пишет сама себя в журнал — тогда таблица становится зеркалом модели. Следи за этим, и мы отделим человека от иллюзии, пока она не начала копировать сама себя.