Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 595
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Когда входишь в здание под названием "Статистика", то над входом написано "Мусор на входе - мусор на выходе".
Любой индикатор это функция от цены. Нейронные сети обладают неленейностью. Она сама способна вывести формулу любого индикатора, если сеть достаточной глубины. Если сеть не может обучиться на ценовых данных, то дело не во входах, а в том что по цене в принципе нельзя получить выходные данные.
Любой индикатор это функция от цены. Нейронные сети обладают неленейностью. Она сама способна вывести формулу любого индикатора, если сеть достаточной глубины. Если сеть не может обучиться на ценовых данных, то дело не во входах, а в том что по цене в принципе нельзя получить выходные данные.
И вы, и СанСаныч - вы оба правы.
С одной стороны, НС сама построит любой нужный ей индикатор и их совокупность. С другой, если данные неочищенные, и в них слишком много шума, то никакая НС не сможет ничему обучиться. Т.е., дело и во входах тоже.
Насколько важно перемешивать выборку при обучении НС? какие математические обоснования этому есть?
перемешивание актуально для всех моделей МО или только для каких-то конкретных?
Насколько важно перемешивать выборку при обучении НС? какие математические обоснования этому есть?
перемешивание актуально для всех моделей МО или только для каких-то конкретных?
Перемешивать нужно, чтобы алгоритм обучения при каждом цикле не шел одним и тем же путем. Можем попасть и не выбраться из локального экстремума.
т.е. нужно несколько раз перемешать, несколько раз обучить и посмотреть как соотносятся результаты?
т.е. нужно несколько раз перемешать, несколько раз обучить и посмотреть как соотносятся результаты?
Перемешивать нужно после каждых нескольких эпох обучения. К сожалению, многие алгоритмы обучения не допускают перерывов (см. Питон - некоторые пакеты (модули)) и начинают каждый раз с нуля.
Перемешивание также хорошо сочетать с отжигом. Но, опять таки, на автомате это делать трудно. Т.к. нужно всегда смотреть промежуточные результаты, а потом уже планировать дальнейшие действия.
Перемешивать нужно после каждых нескольких эпох обучения. К сожалению, многие алгоритмы обучения не допускают перерывов (см. Питон - некоторые пакеты (модули)) и начинают каждый раз с нуля.
Перемешивание также хорошо сочетать с отжигом. Но, опять таки, на автомате это делать трудно. Т.к. нужно всегда смотреть промежуточные результаты, а потом уже планировать дальнейшие действия.
уу.. вон оно че.. т.е. просто перемешать перед обучением не имеет никакого смысла
И у тебя теперь есть) Погремуха - CatBoost.
---------
Если возникнет желание половить бозончик...
https://www.kaggle.com/c/higgs-boson
В Darch по умолчанию стоит перемешивание перед каждой эпохой. Пробовал отключить - вообще ни чему не обучилась.
Я вот и подумал, если все перемешивается, то как сделать, чтобы свежие данные сильнее влияли на обучение?
В Darch по умолчанию стоит перемешивание перед каждой эпохой. Пробовал отключить - вообще ни чему не обучилась.
Я вот и подумал, если все перемешивается, то как сделать, чтобы свежие данные сильнее влияли на обучение?