Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2269

 
Maxim Dmitrievsky:

Я провел сравнения разных генеративных моделей из библиотеки выше, через свою либу. Получилось, что GMM работает лучше для табличных данных (датафрейма с приращениями). Потом идут копулы, вторые по эффективности. Нейросетевые модели типа табличных Ганов и проч. сработали хуже. Но, возможно, я что-то сделал не так. Еще есть такой вариант. 

Сети похоже плохо шум переносят, возможно поэтому результаты хуже.

Хотел на каждой эпохе шум подмешивать к данным, но так руки и не дошли.

 
Rorschach:

Сети похоже плохо шум переносят, возможно поэтому результаты хуже.

Хотел на каждой эпохе шум подмешивать к данным, но так руки и не дошли.

как будто бы очень сильно усредняют. На выходе получаются похожие семплы, слабый разброс. Как латентный вектор не меняй, получаются слишком близкие значения.

 
Maxim Dmitrievsky:

как будто бы очень сильно усредняют. На выходе получаются похожие семплы, слабый разброс. Как латентный вектор не меняй, получаются слишком близкие значения.

Может глубину истории уменьшить?

 
Rorschach:

Может глубину истории уменьшить?

делал разную, на выходе что автоэнкодер что гмм отдает сильно усредненные значения. Если автоэнкодер по определению сжимает, то ГАНы непонятно почему. Дропаут тоже не спасает, вроде.

 
Maxim Dmitrievsky:

делал разную, на выходе что автоэнкодер что гмм отдает сильно усредненные значения. Если автоэнкодер по определению сжимает, то ГАНы непонятно почему. Дропаут тоже не спасает, вроде.

Усреднение и смазанность ведь примерно одно и то же? Вот статью нашел.

 
Rorschach:

Усреднение и смазанность ведь примерно одно и то же? Вот статью нашел.

ну да, сжатие инфы

с цифрами понятно, а с табличными данными хуже работает

поэтому есть TabularGAN. В пакете выше.

 
Maxim Dmitrievsky:

ну да, сжатие инфы

с цифрами понятно, а с табличными данными хуже работает

Почитал по диаганали, вроде дело в другом распределении шума и неподходящей метрике.

Лучше проверить на тестовых данных в тепличных условиях.
 
Rorschach:

Интересная тема реверс сетки.

Подать на входы шум. Получить спектр на выходе. 

https://arxiv.org/pdf/1806.08734.pdf

 
mytarmailS:

что делать?

где перелом, ловить точки, делать достаточное количество данных таких переломов и обучать. но это требует немного больше ресурсов, чем есть сегодня.

 

а, под сеткой имелась в виду нейронка, а не мартингейл.. ну да )

сколько я не тряс местных недоЦОСников, так и не смог получить хоть сколько-нибудь внятных ответов, одно пережевывание соплей

ну да ладно.
Причина обращения: