Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1492
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
интересная статья по обучению НС на Хабре ( просто чтиво ) Реставрируем фотографии с помощью нейросетей
самое ценное, как всегда, комментарии пользователей - всю статью автор рассказывает про большой прорыв в своей работе, как водится со сравнением стороннего софта, но пользователи сразу указали на изъяны - преобладание зеленого цвета
вывод - подготовка входных данных первичнее самой технологии обучения НС
вывод - подготовка входных данных первичнее самой технологии обучения НС
Колдун об этом сказал еще миллиард страниц назад.
Господа, когда же вы научитесь слушать друг друга? Что за деревенская узколобость и тупизм? Это уже реально вымораживает и бесит.
интересная статья по обучению НС на Хабре ( просто чтиво ) Реставрируем фотографии с помощью нейросетей
самое ценное, как всегда, комментарии пользователей - всю статью автор рассказывает про большой прорыв в своей работе, как водится со сравнением стороннего софта, но пользователи сразу указали на изъяны - преобладание зеленого цвета
вывод - подготовка входных данных первичнее самой технологии обучения НС
Всё дело в том, что фотография не подвижна и не меняется, также отпечатки пальцев. И при распознавании образов машинное обучение незаменим.
Но когда на форексе МО применяется на исторических данных, то он лишь создает иллюзию, что нашел оптимальный вариант.
А на самом деле он на истории просто научился обходить все опасные участки, в результате чего получается великолепный график прироста.
Но ценообразование это динамичный процесс, всё время меняется, двигается вперёд и никто не сможет угадать куда пойдет цена: Т.е. робот на основе машинного обучения, при реальной торговле в неординарных ситуациях всё время будет ошибаться .
Но когда на форексе МО применяется на исторических данных, то он лишь создает иллюзию, что нашел оптимальный вариант.
А на самом деле он на истории просто научился обходить все опасные участки, в результате чего получается великолепный график прироста.
читал все это https://habr.com/ru/post/443240/
тут в общем, в уже сотый раз озвучу свое мнение, МО ничем не лучше и не хуже ГА тестера стратегий,
но все равно тема очень интересная, увлекает все это ))))
Тут еще какие-то примеры https://csharp.hotexamples.com/examples/-/mcpd.mcpdreport/-/php-mcpd.mcpdreport-class-examples.html
Ну, получается довольно просто в применении. Из 1-го примера.
Задаем кол-во состояний, и последовательности переходов (допустим, исторические). Т.е. вероятности нахождения в данном состоянии. И потом она считает общую вероятность по всем состояниям.
Или на МАшках сделать простой пример для начала, но пока все еще не вкупил как че, мб @mytarmailS пояснит
Такая стратегия с МАшками (очень простая) описана тут
https://www.quantstart.com/articles/market-regime-detection-using-hidden-markov-models-in-qstrader
Ну, получается довольно просто в применении. Из 1-го примера.
Задаем кол-во состояний, и последовательности переходов (допустим, исторические). Т.е. вероятности нахождения в данном состоянии. И потом она считает общую вероятность по всем состояниям.
Или на МАшках сделать простой пример для начала, но пока все еще не вкупил как че, мб @mytarmailS пояснит
В алглибе, как я понял (возможно что неверно), надо самому треки составлять по нужному к-ву кластеров. А в тех примерах на Питоне, запрашиваешь нужное количество кластеров, и он сам данные перераспределяет.
Хотя если классификация, с 2 классами, то наверное можно цепочки строить так: начинающиеся с 0 пока не станет 1; и начинающиеся с 1 пока не станет 0. Т.к. у нас нет промежуточных 0.95, 0.8 и т.д.
В алглибе, как я понял (возможно что неверно), надо самому треки составлять по нужному к-ву кластеров. А в тех примерах на Питоне, запрашиваешь нужное количество кластеров, и он сам данные перераспределяет.
Хотя если классификация, с 2 классами, то наверное можно цепочки строить так: начинающиеся с 0 пока не станет 1; и начинающиеся с 1 пока не станет 0. Т.к. у нас нет промежуточных 0.95, 0.8 и т.д.
вообще не понимаю как это работает. Тогда почему просто не использовать классификацию через НС
не понял как он результаты выводит в питоне, в т.ч. на новых данных. И в алглиб как получить предсказанное состояние на новых данных, и для каждого измерения в отдельности. Слишком много букав за раз.
и похоже, что в алглиб что-то не то, другая модельвообще не понимаю как это работает.
Я тоже не понял и увидел разницу в использовании, потому и забросил после 2-3х часов изучения)
Я тоже не понял и увидел разницу в использовании, потому и забросил после 2-3х часов изучения)
допустим, можно домножить значения Hidden matrix на текущее значение, например ретурн, и получить метку класса (т.е. скрытое состояние). Но тогда это получается простейший классификатор.
а на вход подавать тоже нормализованные значения 0:1
хз в чем прикол :)