Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 593

 
Maxim Dmitrievsky:

Фокусированные сети прямоrо распространения с задержкой по времени 

При структурном распознавании образов (structural pattem recognition) принято использовать статические нейронные сети. В противоположность этому временное pacпознавание образов (temporal pattem recognition) требует обработки образов, изменяющихся во времени, и генерации отклика в конкретный момент времени, который зависит не только от текущеro, но и от нескольких предыдущих ero значений. 

А такие есть? :) как раз типа таких архитектур на форексе и будут работать, в теории.. но надо эксперементировать. Сделать легко, достаточно добавить к МЛП пару "интересных" нейронов, или соединить 2 модели.

Где модель возьмете?
 
Yuriy Asaulenko:
Где модель возьмете?

сам сделаю ) еще пока не дочитал, в книжках вообще много интересного, как оказалось

вот сама идея с "памятью" для рынков должна быть хороша.. но не супертормознутые рекуррентки, а что-нибудь попроще и поспециализированней 

 

Самый простой пример:

Под внешним "смещателем" можно подразумевать некоторую ф-ю, например, от предыдущих сделок, волатильности, или еще каких-то гиперпараметров системы

Но лучше будет, если смещатель будет встроен в 1 или несколько нейронов, тогда он получится как бы еще и нелинейным

 

Не стоит надеяться о том что появится новый вид нейронки или пакет для питона который решит все проблемы - и не будет оверфита модели, и она не будет боятся нестационарности, итд. 

Какой бы замороченной ни была модель, в её основе будет лежать простой принцип - берутся данные для обучения подготовленные человеком, а модель всего лишь создаёт некое упрощённое описание как из входных данных посчитать результат. Всё это ушло недалеко от предсказания по ближайшему соседу, но привычные модели предсказывают на порядки раз быстрее (хоть и требуется долгое обучение), поэтому их любят больше.

Ключевая фраза - "данные для обучения подготовленные человеком". Если вам эксперт правильно подготовит данные, то вы на них обучите модель и будете торговать в плюс, посмотрите например те таблички для тренировки и теста что выкладывали СанСаныч, Vizard, toxic, Михаил.
Смотришь у поражаешься. И никакая потрясающая rnn нейронка с нелинейными фильтрами входов и десятками слоёв за вас такое не сделает.

 
Dr. Trader:

Не стоит надеяться о том что появится новый вид нейронки или пакет для питона который решит все проблемы - и не будет оверфита модели, и она не будет боятся нестационарности, итд. 

Какой бы замороченной ни была модель, в её основе будет лежать простой принцип - берутся данные для обучения подготовленные человеком, а модель всего лишь создаёт некое упрощённое описание как из входных данных посчитать результат. Всё это ушло недалеко от предсказания по ближайшему соседу, но привычные модели предсказывают на порядки раз быстрее (хоть и требуется долгое обучение), поэтому их любят больше.

Ключевая фраза - "данные для обучения подготовленные человеком". Если вам эксперт правильно подготовит данные, то вы на них обучите модель и будете торговать в плюс, посмотрите например те таблички для тренировки и теста что выкладывали СанСаныч, Vizard, toxic, Михаил.
Смотришь у поражаешься. И никакая потрясающая rnn нейронка с нелинейными фильтрами входов и десятками слоёв за вас такое не сделает.


к сожалению (мб только для меня), бОльшая часть того, что здесь обсуждается - это нейростатика. Для нее, действительно, нужно очень хорошо подготовленные данные, статистические св-ва которых не меняются во времени, от того столько различных способов выбора и фильтрации предикторов. Мне такой подход кажется очень сложным из-за препроцессинга.

Но можно же посмотреть в сторону нейродинамики с различными вариантами "памяти" и адаптивными штуками.. мне кажется это более простой и как бы естественный подход, а про эффективность не уверен, смотря как делать. 

И смотря с какой точки зрения рассматривать рынок - как набор паттернов или как эволюционирующую по определенным законам систему.

 
Maxim Dmitrievsky:

Но можно же посмотреть в сторону нейродинамики с различными вариантами "памяти" и адаптивными штуками.. мне кажется это более простой и как бы естественный подход, а про эффективность не уверен, смотря как делать. 
...
эволюционирующую по определенным законам систему.
...

Это нужно изучать, бесспорно. Но человечество ещё не изобрело подходящего инструмента (во всяком случае не в публичном доступе).

lstm нейронки довольно интересны для этой темы, они могут описать временные ряды гораздо точнее обычных нейронок используя меньшее число нейронов. Но с ними проблема - оверфит.
Допустим обучая обычную нейронку можно выделить часть данных для кроссвалидации, и таким образом бороться с оверфитом. А для lstm нейронки важен порядок прихода данных, каждое новое предсказание использует внутреннее состояние нейронки и изменяет его. В итоге весь временной ряд предсказывается в строгой очерёдности, каждое предсказание зависит от прошлых и влияет на будущие. Если часть примеров рандомно убрать для последующего использования в кроссвалидации - то нарушится очерёдность, это плохо и ставит под сомнение всё это обучение. Если же поделить данные на две части последовательно на тренировку и тест - опять получится оверфит потому что это не помогает на форексе.
Всё что можно - обучить lstm до максимальной точности и надеяться. Но форекс такой безответственности не прощает. 

Нужны годы академических трудов на тему оверфита lstm нейронок, когда эту проблему решат то можно будет приступать к созданию грааля.

 

MQL сам по себе не плох и не хорош. Он по синтаксису близок к С++. В общем стандартный язык. Проблема в наличии нужных библиотек для него. А их нет или они не того качества. Поэтому и возникает необходимость подключить Питон. Я уже давал ссылку на его интеграции с MQL. Дам еще. Библиотека сейчас вполне работоспособна. Скачать.

 
Dr. Trader:

Это нужно изучать, бесспорно. Но человечество ещё не изобрело подходящего инструмента (во всяком случае не в публичном доступе).

lstm нейронки довольно интересны для этой темы, они могут описать временные ряды гораздо точнее обычных нейронок используя меньшее число нейронов. Но с ними проблема - оверфит.
Допустим обучая обычную нейронку можно выделить часть данных для кроссвалидации, и таким образом бороться с оверфитом. А для lstm нейронки важен порядок прихода данных, каждое новое предсказание использует внутреннее состояние нейронки и изменяет его. В итоге весь временной ряд предсказывается в строгой очерёдности, каждое предсказание зависит от прошлых и влияет на будущие. Если часть примеров рандомно убрать для последующего использования в кроссвалидации - то нарушится очерёдность, это плохо и ставит под сомнение всё это обучение. Если же поделить данные на две части последовательно на тренировку и тест - опять получится оверфит потому что это не помогает на форексе.
Всё что можно - обучить lstm до максимальной точности и надеяться. Но форекс такой безответственности не прощает. 

Нужны годы академических трудов на тему оверфита lstm нейронок, когда эту проблему решат то можно будет приступать к созданию грааля.


нужна нс, которая играет сама с собой в форекс :) это не lstm. lstm не использует ВР как внешнего агента, который бьет ее по лбу когда она ошибается

ну собсно Юрий уже об этом писал, это я так, подытожить

 
Grigoriy Chaunin:

MQL сам по себе не плох и не хорош. Он по синтаксису близок к С++. В общем стандартный язык. Проблема в наличии нужных библиотек для него. А их нет или они не того качества. Поэтому и возникает необходимость подключить Питон. Я уже давал ссылку на его интеграции с MQL. Дам еще. Библиотека сейчас вполне работоспособна. Скачать.


спасибо Вам за труды! если что заюзаемс попозже, сохранил себе

 

Не спится - немного почитал всякую муть в инете. Понравилось вот это:

"То что приращения используют это не совсем так уж плохо на общем фоне, большинство логарифмированный прайс подают на вход, приращения это шаг вперёд, хотя и так и так подгонка.

Я знаю людей которые из НС вытянули грааль, но те парни настолько закрыты для общения и даже намёков о том что они делают, у меня новичка так точно нет шансов. Знаю только что там всё архисложно, там не велс, не метатрейдер и даже не S#, а С++ и MatLab с какими то фичами которым расшифровывают и интерпретируют данные поступающие с калайдеров, оказалось что это одна и та же методология, я как услышал так и подафигел, там с ними работает дядя который раньше в ЦЕРНе перемалывал терабайты в день ища новый частицы в квантовом хаосе."

Прикольно. Остаюсь при своем мнении - на вход НС надо подавать чистейшие, как слеза, приращения цены. Именно приращения - ключ ко всему. На них строится решение этой задачи. Фактически на Форексе мы следим за псевдостационарным процессом движения волнового пакета (функции плотности вероятности) этих приращений. И ничего более. (этот абзац уже я налабал :)))

Причина обращения: