Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 598
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
1) Как обстоят дела в обучением? Не видно применение весов.
2) Веса самого нейрона имеются?
3) В качестве среды можно взять производную закрытия или быстрой МА 1-4 порядка. Либо приращения.
4) Размер скрытого слоя я бы ставил равным входу.
веса идут до сумматоров, все по классике, потом взвесь подается в ф-ю активации. просто неудобно было все подписывать на тачпаде
в кач-ве "среды" - тут потразумевается некое действие, уже совершенное НС вовне, например, сделка.. т.е. память системы на n действий назад, то же самое и с обратной связью - какое действие привело к какому результату
значит пока что сделаю внутренний слой равный входному.. и мб еще один добавить потом
Только зря время потеряете. На реал данных это работать не будет.
Например: Один неверный ответ НС, и он будет воздействовать на все последующие.
ну не совсем, просто нс будет учитывать серийность и результативность сделок как допфактор.. это как вариант, я не говорю что окончательный
поэтому и спрашиваю какие еще есть идеи
+ это встраиваиваемый адаптивнй элемент.. ну как транзистор допаять
а основная НС выполняет другие ф-ии
веса идут до сумматоров, все по классике, потом взвесь подается в ф-ю активации. просто неудобно было все подписывать на тачпаде
в кач-ве "среды" - тут потразумевается некое действие, уже совершенное НС вовне, например, сделка.. т.е. память системы на n действий назад, то же самое и с обратной связью - какое действие привело к какому результату
значит пока что сделаю внутренний слой равный входному.. и мб еще один добавить потом
Но здесь нюанс в том, что в таком случае стоит подумать над встраиванием Q-функции, так как это нужно расценивать как награду. Либо вывести формулу обучения с учетом награды.
Тогда как вариант сумму прибыли в пунктах. Успешная сделка -> увеличение, и наоборот.
Но здесь нюанс в том, что в таком случае стоит подумать над встраиванием Q-функции, так как это нужно расценивать как награду. Либо вывести формулу обучения с учетом награды.
да, норм :) хороший вариант
формула пока простая - отдельные нейроны, на которые подаются прошлые результаты торговли, даже не нейроны а просто в сумматор добавляются значения. Про кулернинг еще не почитал толком
да, норм :) хороший вариант
формула пока простая - отдельные нейроны, на которые подаются прошлые результаты торговли, даже не нейроны а просто в сумматор добавляются значения. Про кулернинг еще не почитал толком
Создаете две одинаеовые НС, одну обучаете традиционным образам, а вторую - путем прямой передачи весов, дозированно в зависимости от результата от предсказания первой, т.е. вторая должна учиться только на положительном опыте.
есть такой вариант, сначала обучается несколько НС на разных периодах, потом сводятся в одну.. изощренная подгонка :)
хочется что бы она сама понимала когда начинает работать стремно и перестраивалась
есть такой вариант, сначала обучается несколько НС на разных периодах, потом сводятся в одну.. изощренная подгонка :)
хочется что бы она сама понимала когда начинает работать стремно и перестраивалась
Для подобных целей Вы явно не ту структуру придумали.
а как надо?
а как надо?
есть такой вариант, сначала обучается несколько НС на разных периодах, потом сводятся в одну.. изощренная подгонка :)
хочется что бы она сама понимала когда начинает работать стремно и перестраивалась
Во-первых - не совсем подгонка, поскольку доказано, что комитеты работают лучше, это объясняется, например на противоположных, по знаку отклонениях отдельных моделей, приводящих к повышению точности. Во-вторых предложенный тандем НС - это и есть единая, самонастраивающаяся модель, которая также положительно зарекомендовала себя в методах обучения с подкреплением.