Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.
Одно на другое не меняется никак.
Ну почему же: ОРО <-> ГА ;).
Удачи.
VladislavVG:
Ну почему же: ОРО <-> ГА ;).
Если ОРО убрать -- ГА, значится, будет без неё работать?
Разрешите поинтересоваться -- что именно она будет ГА?
Н-да. Сурово вас там учат.
Удачи. :)
Дело не в динамике. Динамика может быть любая - главное чтоб закономерности, которые сеть нашла на периоде тренировки, работали в будущем. Вот в этом вся загвоздка.....)))
про динимаку грил если в сетку суем вр той же пары...про другие закономерности - согласен...где бы только их взять чтоб работали постоянно )))
А если ОРО убрать -- ГА, значится, будет без неё работать?
Ну-ну. Сурово вас там учат.
Удачи. :)
Поясните, что конкретно Вы понимаете под понятием "ОРО убрать" и "ГА будет без неё работать" ?
Если имеется ввиду замена\расширение алгоритма обучения ОРО на\с использованием ГА, о чем я и говорил - то будет, если что-то другое, то, наверное, я не понял. Во многих случаях будет работать и метод сопряженных градиентов и гораздо эффективнее, чем ОРО. Все от минимизируемого функционала зависит.
А по поводу "сурово учат" могу ответить тем же: похоже, Вас сурово недоучивают ;).
Удачи.
ЗЫ Статьи на тему модификации алгоритмов обучения с использованием ГА сами найти в состоянии ? Есть и на русском ;).
Поясните, что конкретно Вы понимаете под понятием "ОРО убрать" и "ГА будет без неё работать" ? .
Это у вас надо спрашивать -- что это такое. И Решетова. Или как понимать ваше "Ну почему же: ОРО <-> ГА"?
Что понимаю лично я: ГА -- лишь механизм оптимизации. Оптимизации чего угодно. ГА позволяет избавиться от перебора параметров "в лоб".
К нейросетям отношения не имеет. Вернее, имеет, но только лишь как механизм подбора оптимальных весов.
Поэтому ГА не есть НС и никогда ей не будет.
VladislavVG:
Если имеется ввиду замена\расширение алгоритма обучения ОРО на\с использованием ГА, о чем я и говорил - то будет, если что-то другое, то, наверное, я не понял. Во многих случаях будет работать и метод сопряженных градиентов и гораздо эффективнее, чем ОРО. Все от минимизируемого функционала зависит.
А по поводу "сурово учат" могу ответить тем же: похоже, Вас сурово недоучивают ;).
Я вот лопаюсь мозгом в попытке понять вашу первую фразу.
Судя по перечисленным вариантам, её можно построить так: "Если имеется ввиду замена алгоритма обучения ОРО на использование ГА, о чем я и говорил - то будет".
Будет чего? Работать вместо НС?
Это у вас надо спрашивать -- что это такое. Или как понимать ваше "Ну почему же: ОРО <-> ГА"?
Что понимаю лично я: ГА -- лишь механизм оптимизации. Оптимизации чего угодно. ГА позволяет избавиться от перебора параметров "в лоб".
К нейросетям отношения не имеет. Вернее, имеет, но только лишь как механизм подбора оптимальных весов.
Поэтому ГА не есть НС и никогда ей не будет.
Что Вы понимаете под понятием "оптимизации" ? Если просто перебор вариантов, то это не совсем то. Это Вас МТ с толку сбивает.
Теперь о ГА: это метод поиска, в случае обучения сети мы ищем минимум некоторого функционала. Зачастую ошибки. В процессе обучения сети, что ОРО, что ГА, что градиенты, что отжиг (есть такой метод - аналогичен ГА) пытаются найти экстремум. Какой метод окажется более эффективным зависит от самого функционала и критерия качества (то есть критерия по которому отбираются более лучшие варианты). Из этих всех методов ГА - наиболее универсален. И ни один не гарантирует нахождение глобального экстремума.
С использованием ГА, например, можно параллельно подбирать и архитектуру сети - то есть включить ее (архитектуру) в оптимизируемые параметры и задать критерий качества (фитнесс-функцию в терминах ГА). Возможностей больше. Причем при необходимости можно и ОРО использовать совместно с ГА.
Удачи.
Будет чего? Работать вместо НС?
Метод обучения не будет "работать вместо". Ведь ОРО не работает "вместо НС". Более подробно ответил выше.
Удачи.
Что Вы понимаете под понятием "оптимизации" ? Если просто перебор вариантов, то это не совсем то. Это Вас МТ с толку сбивает.
Теперь о ГА: это метод поиска, в случае обучения сети мы ищем минимум некоторого функционала. Зачастую ошибки. В процессе обучения сети, что ОРО, что ГА, что градиенты, что отжиг (есть такой метод - аналогичен ГА) пытаются найти экстремум. Какой метод окажется более эффективным зависит от самого функционала и критерия качества (то есть критерия по которому отбираются более лучшие варианты). Из этих всех методов ГА - наиболее универсален. И ни один не гарантирует нахождение глобального экстремума.
С использованием ГА, например, можно параллельно подбирать и архитектуру сети - то есть включить ее (архитектуру) в оптимизируемые параметры и задать критерий качества (фитнесс-функцию в терминах ГА). Возможностей больше. Причем при необходимости можно и ОРО использовать совместно с ГА.
Удачи.
Тьфу! Совсем запутали!
Это вам надо веточку перечитать.
Некто Решетов утверждает: "Вполне не исключено, т.к. имеем дело с черным ящиком, что вместо нейросети в фирменном пакете будет задействован генетический алгоритм, а может быть какая нибудь регрессия или еще какой метод экстраполяции".
https://www.mql5.com/ru/forum/108709/page4
Вот я и пытаюсь выяснить, что это было. А ОРО приняла за GRNN.
VladislavVG:
Метод обучения не будет "работать вместо". Ведь ОРО не работает "вместо НС".
Вот это я пыталась вам втолковать. :)
И кое-кому ещё.
Просто у вас изначальный посыл был неверен.