Обсуждение статьи "Нейронные сети - от теории к практике" - страница 3

 

marketeer:

Yedelkin:  Т.е. для полноценной работы нейросоветника (самообучение) необходимо в код программы встраивать "штатный алгоритм генетической оптимизации"? 

Нет, конечно!  Он потому и штатный что уже вставлен в оптимизатор. Он сам оптимизирует веса сетки. 
Тогда не понял. Если "штатный алгоритм генетической оптимизации" вставлен в оптимизатор, то каким образом самообучающийся нейросоветник может использовать этот "внешний" алгоритм  в целях самообучения?
 
Yedelkin:
Тогда не понял. Если "штатный алгоритм генетической оптимизации" вставлен в оптимизатор, то каким образом самообучающийся нейросоветник может использовать этот "внешний" алгоритм  в целях самообучения?
Направление взаимодействия обратное. По аналогии с обычным экспертом - есть оптимизатор, который дергает за входные параметры "черный ящик" советника (любого). Если в советнике сидит нейронная сеть, он от этого не перестает быть таким же "черным ящиком". Только оптимизируемые параметры при этом - куча весов сетки.
 
Yedelkin:
Тогда не понял. Если "штатный алгоритм генетической оптимизации" вставлен в оптимизатор, то каким образом самообучающийся нейросоветник может использовать этот "внешний" алгоритм  в целях самообучения?

Нейронная сеть это упрощённо функция вида f[x1,x2,...,xn][w1,w2,...,wn], где x-входная информация (меняется и зависит от рыночной ситуации) и w - веса сети, фиксированные коэффициенты (в контексте данной статьи input-параметры) которые подбираются оптимизацией в тестере.

Так вот, если понадобится обучать сеть в режиме онлайн, то штатным оптимизатором уже воспользоваться не получится и придется использовать какой нибудь алгоритм оптимизации (нужно встроить в советник).

 
marketeer:
Направление взаимодействия обратное. По аналогии с обычным экспертом - есть оптимизатор, который дергает за входные параметры "черный ящик" советника (любого). Если в советнике сидит нейронная сеть, он от этого не перестает быть таким же "черным ящиком". Только оптимизируемые параметры при этом - куча весов сетки.
Если так, то ни о каком самообучении нейросоветников говорить не приходится. А обучением называют обычную подгонку параметров.
 
jooТак вот, если понадобится обучать сеть в режиме онлайн, то штатным оптимизатором уже воспользоваться не получится и придется использовать какой нибудь алгоритм оптимизации (нужно встроить в советник).
Да, именно этот момент я и хотел уяснить. Получается, что только в таком случае нейросоветник можно действительно называть самообучающимся. 
 
yu-sha: http://lancet.mit.edu/ga/ - Massachusetts Institute of Technology
 Спасибо всем! Направление примерно понял.
 


yu-sha: http://lancet.mit.edu/ga/ - Massachusetts Institute of Technology

Yedelkin:

 Спасибо всем! Направление примерно понял.
тогда уж по статьям покопайте. весь необходимый инструментарий, причем на MQL5, уже есть тут, на родном форуме.
 
joo: тогда уж по статьям покопайте. весь необходимый инструментарий, причем на MQL5, уже есть тут, на родном форуме.
 Это само собой :) Просто надо было основную фишку понять.
 
Yedelkin:
Если так, то ни о каком самообучении нейросоветников говорить не приходится. А обучением называют обычную подгонку параметров.
А Вы наивно полагаете, что самообучение - это необычная подгонка?
 

Reshetov:
А Вы наивно полагаете, что самообучение - это необычная подгонка?

 

Обучение сети = подгонка

Самообучение = самоподгонка