Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 544
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
есть вариант что ваш монитор цвета путает, иногда сложно различить из-за калибровки неправильной
а что построили то? если не секретнет такого варианта
вспомните про то как я Вам говорил, что фунт на арбитражном графике не тем цветом
что построил - секрет
нет такого варианта
вспомните про то как я Вам говорил, что фунт на арбитражном графике не тем цветом
что построил - секрет
у меня все цвета совпадали
Не про рынок, но очень полезно и про общий подход к эффективному построению модели (на любом этапе может что-то пойти не так, а мы этого даже не поймем):
Обучение без учителя (кластеризация) и RL (обучение с подкреплением). В попытках уменьшения оптимизируемых параметров. Кто-нибудь думал над тем как можно применять кластеризацию? со вторым сложнее, нужны специализированные пакеты
пример: https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/
https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/
Обучение без учителя (кластеризация) и RL (обучение с подкреплением). В попытках уменьшения оптимизируемых параметров. Кто-нибудь думал над тем как можно применять кластеризацию? со вторым сложнее, нужны специализированные пакеты
пример: https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/
https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/
Я начал подумывать об обучении с подкреплением. Мне кажется это то что нужно для бирж.
я тоже, параллельно пайтон осваиваю.. R бесит. Была статья древняя про слой Кохонена от o_o, он там что-то на плюсах писал и так особо без примеров и развития
https://www.mql5.com/ru/articles/1562
я тоже, параллельно пайтон осваиваю.. R бесит. Была статья древняя про слой Кохонена от o_o, он там что-то на плюсах писал и так особо без примеров и развития
https://www.mql5.com/ru/articles/1562
Вообще можно тебя контрибьютером к моему репозиторию добавить, объясню схему как у меня все работает.
Я писал на плюсах qt и opennn, честно говоря там дольше mlp (opennn) ничего не разработано пока.
Вообще можно тебя контрибьютером к моему репозиторию добавить, объясню схему как у меня все работает.
боюсь мне надо сначала еще поосваиваться маленько, еще не настолько программист :) мб попозже в след году
Обучение без учителя (кластеризация) и RL (обучение с подкреплением). В попытках уменьшения оптимизируемых параметров. Кто-нибудь думал над тем как можно применять кластеризацию? со вторым сложнее, нужны специализированные пакеты
пример: https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/
https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/
Также держу у себя на примете. Только руки не дойдут никак.
Кластеризация тоже интересный метод. Я думаю его стоит применять перед обучением модели, так как таким образом отсеются мало и совсем не коррелирующие параметры.
Также держу у себя на примете. Только руки не дойдут никак.
особенно если юзать многомерную кластеризацию, можно поробовать подать векторы с признаками и векторы с лагом, допустим, приращений.. что бы разбить на группы - каким свойствам признаков соответствовали какие приращения в будущем
и потом обращаться к этому набору для обучения НС, например.. т.е. типа датамайнинга
да, именно перед обучением.. ну или как отдельную фишечку для ТС