Midjourney и другие нейросети обработки изображений - страница 686

 

.

 
Ivan Butko #:

у сектанотов подгорает

начинают судорожно отрицать очевидное

Сектанты это те кто забавно аппелируют к авторитетам?
 
Andrey Dik #:
МО - поиск состояния модели, которое (состояние) минимизирует ошибку на новых неизвестных данных

Это как вообще? Что и как можно оптимизировать на неизвестном?

Наверно имеется в виду, что обучение на одной части датасета, а оценка на другой части. То есть, при обучении решается одна задача оптимизации, а при оценке результата обучения - совсем другая задача оптимизации (например, выбора гиперпараметров для первой оптимизации). Это и пытаются вам втолковать - в машине есть колёса, но машина не сводится к колёсам. Главное - определиться где и какие колёса должны находиться, чтобы машина поехала.

Есть ещё тонкий момент, что при оценке гиперпараметров используется оптимизация, которая тоже имеет свои параметры, которые можно назвать уже гипергиперпараметрами и их тоже надо как-то оценивать. Теоретически, получается бесконечная матрёшка из оптимизаций, которой на практике никто конечно не заморачивается, ограничиваясь эмпирикой.

 
В МО есть базовый алгоритм, будь то НС, SVM, RF и проч. Именно от свойств этого алгоритма зависят свойства модели, наряду с данными. Каким образом он обучается/оптимизируется, имеет второстепенное значение. 

Именно базовый алгоритм важен, это костяк модели. Он позволяет искать закономерности в данных. Он никак не принадлежит к семейству солверов, а принадлежит к семейству МО. К нейросети можно прикрутить практически любой солвер, включая случайный перебор значений параметров модели, либо брутфорс.

Тем более что брутфорс вообще не является АО. Также используется оптимизация по сетке для гиперпараметров, которая не является оптимизацией в полном смысле этого слова, а просто перебором вариантов.

Отсюда вытекает основная задача МО - построение адекватной модели с учётом шума в данных, а не ее переоптимизация в талово.
 
Aleksey Nikolayev #:

Это как вообще? Что и как можно оптимизировать на неизвестном?

Наверно имеется в виду, что обучение на одной части датасета, а оценка на другой части. То есть, при обучении решается одна задача оптимизации, а при оценке результата обучения - совсем другая задача оптимизации (например, выбора гиперпараметров для первой оптимизации). Это и пытаются вам втолковать - в машине есть колёса, но машина не сводится к колёсам. Главное - определиться где и какие колёса должны находиться, чтобы машина поехала.

Есть ещё тонкий момент, что при оценке гиперпараметров используется оптимизация, которая тоже имеет свои параметры, которые можно назвать уже гипергиперпараметрами и их тоже надо как-то оценивать. Теоретически, получается бесконечная матрёшка из оптимизаций, которой на практике никто конечно не заморачивается, ограничиваясь эмпирикой.

Если есть желание - напишите в личку, пообщаемся. Тут это всё офтопик и по-хорошему последние минимум 5 страниц ветки подлежат удалению как флуд.
 
Aleksei Stepanenko #:
Похоже, не могу правильно осознать понятие энтропии.

Разнообразие в этой интерпретации) Ну как бы не много коррелирует с физическим пониманием энтропии)

 
Andrey Dik #:
Определение оптимизации: оптимизация - процесс поиска наилучшего решения.

Так и поиск решения задачи тоже получится что это оптимизация, или выбор обойти лес с разбойниками или пройти по нему тоже оптимизация, а военное дело с хитростями и обманами супероптимизация)))

Что то не вяжется, все таки поиск решения и выбор наилучшего решения это разные вещи, сперва надо решить задачу, а потом оптить)

 
Valeriy Yastremskiy #:

Так и поиск решения задачи тоже получится что это оптимизация, или выбор обойти лес с разбойниками или пройти по нему тоже оптимизация, а военное дело с хитростями и обманами супероптимизация)))

Что то не вяжется, все таки поиск решения и выбор наилучшего решения это разные вещи, сперва надо решить задачу, а потом оптить)

Не я придумал слова и придал им смысл.))

Согласно определению - простой поиск решения не является оптимизацией. Но если есть варианты выбора из возможных нескольких решений, то процесс является оптимизацией.

Я упоминал выше, что этим и отличается оптимизация от эволюции - в осознанном выборе вариантов из возможных решений. Это следует из определения, устал уже повторять.)

Радует, очень, что на форуме присутствуют думающие люди.))

<телеграм канал удален модератором>
 

Типа, что такое квантовая физика языком зумеров от ChatGPT

 

Pika обновилась до версии 1.5.

Добавлено! физика объектов (гравитация, изменение, разрушение, разрезание и т.д.)

// это генератор видео по промту