Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1977

 

Скорее бред, но спрошу.


Могут ли НС прогнозировать такие ряды?


Типа вероятности появления следующего символа.  И есть ли зависимость ряда A, от ряда B.

 
Evgeniy Chumakov:

Скорее бред, но спрошу.


Могут ли НС прогнозировать такие ряды?


Типа вероятности появления следующего символа.  И есть ли зависимость ряда A, от ряда B.

это их прямая задача

 

После перехода на TensorFlow 2.3 вылезла ошибка

"WARNING:tensorflow:11 out of the last 11 calls to triggered tf.function retracing. Tracing is expensive and the excessive number of tracings could be due to creating @tf.function repeatedly in a loop ".

Т.е. какая то tf.function ругается что она в цикле. Никакой tf.function у меня нет, но в цикле есть опрос моделей prediction=model.predict(data).
tf.function описана здесь
Это явно какая то неведомая сущность, кто то понимает что это?

UPD
Короче, это какая то крутая штукня, без нее никак, придется вникать. Она решает проблемы совместимости TensorFlow с Питоном.

 

Вроде, допилил трейдера-агента. Демку замониторил, для альфа тестов. Логика нетривиальная, поэтому могут быть баги. Потестим-с.

сейчас мне интересно попробовать LSTM в разных вариантах и мб трансформеры (но там можно мозг сломать пока разберешься)
 
Maxim Dmitrievsky:

Вроде, допилил трейдера. Демку замониторил, для альфа тестов. Логика нетривиальная, поэтому могут быть баги. Потестим-с.

сейчас мне интересно попробовать LSTM в разных вариантах и мб трансформеры (но там можно мозг сломать пока разберешься)

Логика более разветвленная. С одной стороны это хорошо. А с другой баги на незнакомых участках. Трансформер это что?

 
Valeriy Yastremskiy:

Логика более разветвленная. С одной стороны это хорошо. А с другой баги на незнакомых участках. Трансформер это что?

новый тип сетей для работы с временнми последовательностями, говорят что лучше лстм. В распознавани текстов, машинном переводе и т.п. используются, для выделения контекста предложений. Т.е. когда слово связано с другими (предыдущими) некоторым контекстом.

self-attention transformers. Механизм - аналог человеческого внимания.

 
Maxim Dmitrievsky:

новый тип сетей для работы с временнми последовательностями, говорят что лучше лстм. В распознавани текстов, машинном переводе и т.п. используются, для выделения контекста предложений. Т.е. когда слово связано с другими (предыдущими) некоторым контекстом.

self-attention transformers. Механизм - аналог человеческого внимания.

Ну такие значительные усложнения. Сперва память долгая и короткая, еще и подобие внимания в модели. Мозг точно сходу не потянет.))) Но работать должно лучше.

 
Valeriy Yastremskiy:

Ну такие значительные усложнения. Сперва память долгая и короткая, еще и подобие внимания в модели. Мозг точно сходу не потянет.))) Но работать должно лучше.

оно и работает лучше, но там черт ногу сломит ) если еще RL прикручивать

вообще, обычные сети обратного распространения типа млп никак не годятся для временных рядов, от слова совсем. Как минимум нужны RNN
 
Maxim Dmitrievsky:

оно и работает лучше, но там черт ногу сломит ) если еще RL прикручивать

вообще, обычные сети обратного распространения типа млп никак не годятся для временных рядов, от слова совсем. Как минимум нужны RNN

Для стационарных они годятся) Простая логика для простого только работает. Для реальных рядов сложный мосх нужен)

 
Valeriy Yastremskiy:

Для стационарных они годятся) Простая логика для простого только работает. Для реальных рядов сложный мосх нужен)

Любой не стационарный ряд можно представить как сумму стационарных произвольной длины. Вот произвольность длины большая закавыка в задаче прогноза.

Причина обращения: