Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 598

 
Aleksey Terentev:
1) Как обстоят дела в обучением? Не видно применение весов.
2) Веса самого нейрона имеются?
3) В качестве среды можно взять производную закрытия или быстрой МА 1-4 порядка. Либо приращения.
4) Размер скрытого слоя я бы ставил равным входу.

веса идут до сумматоров, все по классике, потом взвесь подается в ф-ю активации. просто неудобно было все подписывать на тачпаде

в кач-ве "среды" - тут потразумевается некое действие, уже совершенное НС вовне, например, сделка.. т.е. память системы на n действий назад, то же самое и с обратной связью - какое действие привело к какому результату

значит пока что сделаю внутренний слой равный входному.. и мб еще один добавить потом

 
Yuriy Asaulenko:

Только зря время потеряете. На реал данных это работать не будет.

Например: Один неверный ответ НС, и он будет воздействовать на все последующие.


ну не совсем, просто нс будет учитывать серийность и результативность сделок как допфактор.. это как вариант, я не говорю что окончательный

поэтому и спрашиваю какие еще есть идеи

+ это встраиваиваемый адаптивнй элемент.. ну как транзистор допаять

а основная НС выполняет другие ф-ии

 
Maxim Dmitrievsky:

веса идут до сумматоров, все по классике, потом взвесь подается в ф-ю активации. просто неудобно было все подписывать на тачпаде

в кач-ве "среды" - тут потразумевается некое действие, уже совершенное НС вовне, например, сделка.. т.е. память системы на n действий назад, то же самое и с обратной связью - какое действие привело к какому результату

значит пока что сделаю внутренний слой равный входному.. и мб еще один добавить потом

Тогда как вариант сумму прибыли в пунктах. Успешная сделка -> увеличение, и наоборот.
Но здесь нюанс в том, что в таком случае стоит подумать над встраиванием Q-функции, так как это нужно расценивать как награду. Либо вывести формулу обучения с учетом награды.
 
Aleksey Terentev:
Тогда как вариант сумму прибыли в пунктах. Успешная сделка -> увеличение, и наоборот.
Но здесь нюанс в том, что в таком случае стоит подумать над встраиванием Q-функции, так как это нужно расценивать как награду. Либо вывести формулу обучения с учетом награды.

да, норм :) хороший вариант

формула пока простая - отдельные нейроны, на которые подаются прошлые результаты торговли, даже не нейроны а просто в сумматор добавляются значения.  Про кулернинг еще не почитал толком

 
Maxim Dmitrievsky:

да, норм :) хороший вариант

формула пока простая - отдельные нейроны, на которые подаются прошлые результаты торговли, даже не нейроны а просто в сумматор добавляются значения.  Про кулернинг еще не почитал толком

Создаете две одинаеовые НС, одну обучаете традиционным образам, а вторую - путем прямой передачи весов, дозированно в зависимости от результата от предсказания первой, т.е. вторая должна учиться только на положительном опыте.
 
Ivan Negreshniy:
Создаете две одинаеовые НС, одну обучаете традиционным образам, а вторую - путем прямой передачи весов, дозированно в зависимости от результата от предсказания первой, т.е. вторая должна учиться только на положительном опыте.

есть такой вариант, сначала обучается несколько НС на разных периодах, потом сводятся в одну.. изощренная подгонка :)

хочется что бы она сама понимала когда начинает работать стремно и перестраивалась

 
Maxim Dmitrievsky:

есть такой вариант, сначала обучается несколько НС на разных периодах, потом сводятся в одну.. изощренная подгонка :)

хочется что бы она сама понимала когда начинает работать стремно и перестраивалась

Для подобных целей Вы явно не ту структуру придумали.
 
Yuriy Asaulenko:
Для подобных целей Вы явно не ту структуру придумали.

а как надо?

 
Maxim Dmitrievsky:

а как надо?

Понятия не имею.) Но, точно не так.
 
Maxim Dmitrievsky:

есть такой вариант, сначала обучается несколько НС на разных периодах, потом сводятся в одну.. изощренная подгонка :)

хочется что бы она сама понимала когда начинает работать стремно и перестраивалась

Во-первых - не совсем подгонка, поскольку доказано, что комитеты работают лучше, это объясняется, например на противоположных, по знаку отклонениях отдельных моделей, приводящих к повышению точности. Во-вторых предложенный тандем НС - это и есть единая, самонастраивающаяся модель, которая также положительно зарекомендовала себя в методах обучения с подкреплением.  

Причина обращения: