Как Вы работаете с нейросетями? - страница 7

 
Swetten:

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

Одно на другое не меняется никак.


Ну почему же: ОРО <-> ГА ;).

Удачи.

 

VladislavVG:

Ну почему же: ОРО <-> ГА ;).

Если ОРО убрать -- ГА, значится, будет без неё работать?

Разрешите поинтересоваться -- что именно она будет ГА?

Н-да. Сурово вас там учат.

Удачи. :)

 
LeoV:

Дело не в динамике. Динамика может быть любая - главное чтоб закономерности, которые сеть нашла на периоде тренировки, работали в будущем. Вот в этом вся загвоздка.....)))

про динимаку грил если в сетку суем вр той же пары...про другие закономерности - согласен...где бы только их взять чтоб работали постоянно )))
 
Swetten:

А если ОРО убрать -- ГА, значится, будет без неё работать?

Ну-ну. Сурово вас там учат.

Удачи. :)

Поясните, что конкретно Вы понимаете под понятием "ОРО убрать" и "ГА будет без неё работать" ?

Если имеется ввиду замена\расширение алгоритма обучения ОРО на\с использованием ГА, о чем я и говорил - то будет, если что-то другое, то, наверное, я не понял. Во многих случаях будет работать и метод сопряженных градиентов и гораздо эффективнее, чем ОРО. Все от минимизируемого функционала зависит.

А по поводу "сурово учат" могу ответить тем же: похоже, Вас сурово недоучивают ;).

Удачи.

ЗЫ Статьи на тему модификации алгоритмов обучения с использованием ГА сами найти в состоянии ? Есть и на русском ;).

 
VladislavVG:

Поясните, что конкретно Вы понимаете под понятием "ОРО убрать" и "ГА будет без неё работать" ? .

Это у вас надо спрашивать -- что это такое. И Решетова. Или как понимать ваше "Ну почему же: ОРО <-> ГА"?

Что понимаю лично я: ГА -- лишь механизм оптимизации. Оптимизации чего угодно. ГА позволяет избавиться от перебора параметров "в лоб".

К нейросетям отношения не имеет. Вернее, имеет, но только лишь как механизм подбора оптимальных весов.

Поэтому ГА не есть НС и никогда ей не будет.

 

VladislavVG:

Если имеется ввиду замена\расширение алгоритма обучения ОРО на\с использованием ГА, о чем я и говорил - то будет, если что-то другое, то, наверное, я не понял. Во многих случаях будет работать и метод сопряженных градиентов и гораздо эффективнее, чем ОРО. Все от минимизируемого функционала зависит.

А по поводу "сурово учат" могу ответить тем же: похоже, Вас сурово недоучивают ;).

Я вот лопаюсь мозгом в попытке понять вашу первую фразу.

Судя по перечисленным вариантам, её можно построить так: "Если имеется ввиду замена алгоритма обучения ОРО на использование ГА, о чем я и говорил - то будет".

Будет чего? Работать вместо НС?

 
Swetten:

Это у вас надо спрашивать -- что это такое. Или как понимать ваше "Ну почему же: ОРО <-> ГА"?

Что понимаю лично я: ГА -- лишь механизм оптимизации. Оптимизации чего угодно. ГА позволяет избавиться от перебора параметров "в лоб".

К нейросетям отношения не имеет. Вернее, имеет, но только лишь как механизм подбора оптимальных весов.

Поэтому ГА не есть НС и никогда ей не будет.

Что Вы понимаете под понятием "оптимизации" ? Если просто перебор вариантов, то это не совсем то. Это Вас МТ с толку сбивает.

Теперь о ГА: это метод поиска, в случае обучения сети мы ищем минимум некоторого функционала. Зачастую ошибки. В процессе обучения сети, что ОРО, что ГА, что градиенты, что отжиг (есть такой метод - аналогичен ГА) пытаются найти экстремум. Какой метод окажется более эффективным зависит от самого функционала и критерия качества (то есть критерия по которому отбираются более лучшие варианты). Из этих всех методов ГА - наиболее универсален. И ни один не гарантирует нахождение глобального экстремума.

С использованием ГА, например, можно параллельно подбирать и архитектуру сети - то есть включить ее (архитектуру) в оптимизируемые параметры и задать критерий качества (фитнесс-функцию в терминах ГА). Возможностей больше. Причем при необходимости можно и ОРО использовать совместно с ГА.

Удачи.

 
Swetten:

Будет чего? Работать вместо НС?

Метод обучения не будет "работать вместо". Ведь ОРО не работает "вместо НС". Более подробно ответил выше.

Удачи.

 
VladislavVG:

Что Вы понимаете под понятием "оптимизации" ? Если просто перебор вариантов, то это не совсем то. Это Вас МТ с толку сбивает.

Теперь о ГА: это метод поиска, в случае обучения сети мы ищем минимум некоторого функционала. Зачастую ошибки. В процессе обучения сети, что ОРО, что ГА, что градиенты, что отжиг (есть такой метод - аналогичен ГА) пытаются найти экстремум. Какой метод окажется более эффективным зависит от самого функционала и критерия качества (то есть критерия по которому отбираются более лучшие варианты). Из этих всех методов ГА - наиболее универсален. И ни один не гарантирует нахождение глобального экстремума.

С использованием ГА, например, можно параллельно подбирать и архитектуру сети - то есть включить ее (архитектуру) в оптимизируемые параметры и задать критерий качества (фитнесс-функцию в терминах ГА). Возможностей больше. Причем при необходимости можно и ОРО использовать совместно с ГА.

Удачи.

Тьфу! Совсем запутали!

Это вам надо веточку перечитать.

Некто Решетов утверждает: "Вполне не исключено, т.к. имеем дело с черным ящиком, что вместо нейросети в фирменном пакете будет задействован генетический алгоритм, а может быть какая нибудь регрессия или еще какой метод экстраполяции".

https://www.mql5.com/ru/forum/108709/page4

Вот я и пытаюсь выяснить, что это было. А ОРО приняла за GRNN.

 

VladislavVG:

Метод обучения не будет "работать вместо". Ведь ОРО не работает "вместо НС".

Вот это я пыталась вам втолковать. :)

И кое-кому ещё.

Просто у вас изначальный посыл был неверен.