Обсуждение статьи "Роль качества генератора случайных чисел в эффективности алгоритмов оптимизации" - страница 15

 

Теперь, когда собака виляет хвостом (эмпирика оптимизацией), а не наоборот, можно рассмотреть любой алгоритм оптимизации для условно стационарного процесса.

В этом случае можно использовать терминологию поиска глобальных и локальных минимумов.

Но не для оптимизации неизвестно чего и подгонки под абстрактные минимумы или максимумы.

Но даже в этом случае АО имеет тенденцию к переобучению (прееподгонке), тогда применяются валидационные техники для определения робастности тех или иных параметров, из теории обучения.

 
С
Yuriy Bykov #:
К сожалению, стало еще менее понятно, про что речь.
fxsaber #:

Косноязычие+формат форума = непонимание с высокой вероятностью.

Желающие участвовать в конструктивном обсуждении проблематики поиска робастных решений могут написать мне в личные сообщения. Организуем приватный чат с участниками по приглашению.

А участие в беседах, не подразумевающих конструктивный диалог, не входит в список моих текущих задач.

 
Если бы это все было где-то расписано, не пришлось бы пудрить мозги людям максимумами и плато и прочей фигней, которые не имеют значения вне контекста стационарности процесса.
 
Еще когда условия соблюдены, брут форс Монте-Карло работает не хуже всей этой кучи алгоритмов. То есть просто выбирать случайные значения параметров n раз и валидировать.
Причина обращения: