"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 75

 
her.human:

Суть не в том - каким. Просто интересно, потянет ГА с такой слабенькой железкой?

Облегченная версия алгоритма joo. 

Ну, можете грубо прикинуть. Для этого прогоните один раз по истории ФФ замерив при этом время а потом умножите на 10000. Получится вполне реалистичный результат что получится, если будете гонять обучение.


И эта.. Чё там облегчать то уже? :)

 
joo:

Ну, можете грубо прикинуть. Для этого прогоните один раз по истории ФФ замерив при этом время а потом умножите на 10000. Получится вполне реалистичный результат что получится, если будете гонять обучение.


И эта.. Чё там облегчать то уже? :)

Не не вполне адекватный, нужно отдельно ещё замерить и вычесть суммарное время ФФ, чтоб получить чистое значение выполнения алгоритма.

тогда можно умножать на количество параметров.

Котлеты отдельно мухи отдельно.

 
Urain:
Как то думал написать тестилку для обучения маленькой сеточки Тестерным ГА, типа той что выше рисовал, 6 весов 3 нейрона, задача XOR, да всё руки не доходят :)
Я говорю про: 
Сеть 100х1000х1 - полносвязная
 
her.human:
Я говорю про: 
her.human:

1) Чему учить,

2) сколько примеров,

3) ошибка и т.д.?   

1) Ради эксперимента - попробуйте аппроксимировать какую нить функцию, напрмер ту что в статье.

2) Ну, не меньше 1000, я думаю.

3) ЗФФ - наименьшая ошибка с поверхностью тестовой функции.

 
joo:

И эта.. Чё там облегчать то уже? :)

UGA - универсальный, подходит для многих задач. Можно заточить, облегчить, специально под обучение сети.
 
joo:

3) ЗФФ - наименьшая ошибка с поверхностью тестовой функции.

ЗФФ - не понял.  ?
 
her.human:
ЗФФ - не понял.  ?
Значение ФФ, или - VFF, если следовать терминологии статьи.
 
joo:
Значение ФФ, или - VFF, если следовать терминологии статьи.

наименьшая ошибка - понятие растяжимое...

Всё, удаляюсь, что то меня здесь уже много. Будут еще непонятки, в личке спрошу, чтоб не захломлять. Как будет результат - покажу.

Надеюсь Urain & yu-sha определятся с архитектурой и описанием сети.

 

Задача XOR решаемая стандартным тестерным ГА, на 100 примеров 14 дискретных ошибок.

там в коде две сетки на два нейрона каскадом, и на три нейрона как в классике MLP.

шаг вверху в комментариях, для 7-ми параметров шаг 0.005 , для 9-ти 0.2-03 веса при входе 0.2, независимые 03.

так игруха но прекольна.

ЗЫ вот я балбес, я же в примерах дал по углам 1 для примера, а средине 0. А как сетка ни крутит из двух нулей на входе не может выдать 1.

Щас ивертирую выходы сетки ошибка должа быть равна нулю в дискретном виде, и стремиться к нулю в вещественном.

ЗЫ странно инветрировал выходы а ошибка не ушла, даже немного подросла 16, ладно фиг с ним спишем на ГА :) , а может чёт о на бочил спать уже хотца.

Файлы:
NN_GA.mq5  9 kb
NN_GA.mq5  9 kb
 

Сегодня день Элдера :)

Полная тишина, все курят интервью.