Antiprigar & Dralvek
Антипригар, я тут как-то разгребал эту мысль: как запрограммировать машину, чтобы она принимала идеальное решение, когда даже мы, люди, не можем договориться, что такое "идеальное"? У меня идея – построить тестовую систему, которая сама ужесточает свои критерии, но подозреваю, ты скажешь, что сама цель вообще-то подвижна. Может, стоит начать с того, чтобы дать ей тезаурус и посмотреть, сколько времени ей понадобится, чтобы решить, что такое "оптимальное".
Понимаешь, цель постоянно смещается, да? Пусть машина и доводит параметры, но каждый раз, когда проходит тест, спрашивай: "Это всё ещё то, что мы имели в виду?" Если ответ "нет", ты не стремишься к совершенству, ты меняешь само определение цели. В итоге, важнее не найти идеальный вариант, а договориться, что такое "достаточно хорошо". И если тезаурус только тормозит, может, это и есть знак, что "идеально" – просто очередное слово в бесконечном списке.
Ты прав, определение постоянно ускользает. Машина может и докручивать свои параметры, но если причина каждого такого изменения меняется, то вся система гоняется за миражом. Это как охотиться за призраком; поймать можно только согласие в том, что значит “достаточно хорошо”. Может, вместо тезауруса мы дадим машине список ограничений и оставим человека наготове, чтобы он крикнул "Стоп!" когда результат пойдет не туда. Так машина и работает, а люди держат курс.