Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2253

 
Maxim Dmitrievsky:

все на торче

кодер рабочий, просто с ним результаты хуже

короче через расстояние Кульбака-Лейбнера модели очень сложно учиться, это описанная проблема вариационных кодеров

на самом деле, алгоритм "сходится" после 2-3х эпох, и дальше ничего не происходит

One of the main drawbacks of variational autoencoders is that the integral of the KL divergence term does not have a closed form analytical solution except for a handful of distributions. Furthermore, it is not straightforward to use discrete distributions for the latent code z z . This is because backpropagation through discrete variables is generally not possible, making the model difficult to train efficiently. One approach to do this in the VAE setting was introduced here

В статье речь идет несколько о другом. Там рассматривается случай когда все предикторы дискретные [0, 1]. Тогда проблема. Нейросеть не понимает предикторы с нулевой вариацией. 

У Вас, как я понял, случай немного другой. Вы объединили во входных предикторы(непрерывные) и целевую(дискретную матрицу ncol=3). Пробуете практически без обучения получить качественное распределение латентных из которых генерируете (восстанавливаете) входящие включая целевую. Я правильно Вас понял?  Не получится качественно. В статье показан путь решения. Дискретную целевую через RBM перевести в непрерывную, состыковать с другими предикторами и дальше на ВАЕ (обучение!). А уже из обученного ВАЕ извлекайте примеры и опять через RBM восстанавливайте целевую. Сложновато получается. Но может и сработает.

Я попробую с обычным АЕ провернуть.

Удачи

 
Vladimir Perervenko:

В статье речь идет несколько о другом. Там рассматривается случай когда все предикторы дискретные [0, 1]. Тогда проблема. Нейросеть не понимает предикторы с нулевой вариацией. 

У Вас, как я понял, случай немного другой. Вы объединили во входных предикторы(непрерывные) и целевую(дискретную матрицу ncol=3). Пробуете практически без обучения получить качественное распределение латентных из которых генерируете (восстанавливаете) входящие включая целевую. Я правильно Вас понял?  Не получится качественно. В статье показан путь решения. Дискретную целевую через RBM перевести в непрерывную, состыковать с другими предикторами и дальше на ВАЕ (обучение!). А уже из обученного ВАЕ извлекайте примеры и опять через RBM восстанавливайте целевую. Сложновато получается. Но может и сработает.

Я попробую с обычным АЕ провернуть.

Удачи

У меня CVAE. На кодер и декодер метки классов (1,0) помимо всего прочего. Но я сравнил VAE и CVAE, результаты не сильно отличаются (одинаково посредственные)

Целевые не восстанавливаются, а задаются при генерации признаков. Т.е. для какой целевой сгенерить признаки. В примерах с генерацией картинок так и сделано, только целевых больше, поэтому им делается ван-хот

смотрел таблицы сравнения VAE и GAN. Вторые намного лучше генерят, думаю плюнуть на кодеры. Нет столько желания изобретать велосипеды 

Может быть есть смысл перевести в непрерывную, да.. но не факт.

есть небольшая вероятность, что что-то не так делаю.. но потренировался на котиках перед этим )

З.Ы. даже в примере с цифрами он учится всего 10 эпох, а затем ошибка перестает падать

 
Кто либо пробовал метод релевантных векторов?
 

Autoencoders are more suitable for compressing data to lower dimensions or generating semantic vectors from it. Where GANs are more suitable for generating data

https://medium.com/lis-computer-vision-blogs/gans-cgans-ae-aae-ave-caae-cave-2e7d23255b52

я думаю, что результаты смазанные получаются из-за компрессии данных. Даже если увеличить кол-во нейронов, все равно происходит некое сжатие, перекладка в другое распределение. Новые данные всегда будут размазанными, сглаженными и т.п. А мне не нужна мазня, мне нужны правдоподобные семплы.

Точно такую же мазню можно получить сжав признаки PCA, потом загнав их в GMM, а затем распаковав из PCA. Я так делал, получалась тоже мазня.

Кодер - это PCA + GMM в одном флаконе, если проводить аналогию

GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
  • Li Yin
  • medium.com
The difference between each other. The purpose of this article is to see the difference of concepts between GANs, conditional GANs, Autoencoder (AE), adversarial autoencoder (AAE), and conditional adversarial autoencoder (CAAE). Unconditional GAN The generator ( G ) and discriminator ( D ) are both feedforward neural networks which play a...
 
Aleksey Vyazmikin:
Кто либо пробовал метод релевантных векторов?

будешь первым

Maxim Dmitrievsky:

Точно такую же мазню можно получить, сжав признаки PCA, потом загнав их в GMM, а затем распаковав из PCA. Я так делал, получалась тоже мазня.

Кодер - это PCA + GMM а одном флаконе, если проводить аналогию

ну так оставь все компоненты РСА и не будет мазни, будет четкая картинка

 
mytarmailS:

будешь первым

ну так оставь все компоненты РСА и не будет мазни, будет четкая картинка

не будет, при обратном преобразовании нагенеренного добавляется много шума

а может и нет.. но похоже на то
 
Maxim Dmitrievsky:

не будет, при обратном преобразовании нагенеренного добавляется много шума

не понял, гмм уже добавляет шум ? или как?

 
mytarmailS:

не понял, гмм уже добавляет шум ? или как?

я не думал особо, просто предположение на основании ковыряний

гмм даст тебе фичи, которые пса раньше не видел. Но похожие на те, что видел. При обратной трансформации это может как-то повлиять, наверное. Добавить шума.

Это предположение.
 
Maxim Dmitrievsky:

я не думал особо, просто предположение на основании ковыряний

гмм даст тебе фичи, которые пса раньше не видел. Но похожие на те, что видел. При обратной трансформации это может как-то повлиять, наверное. Добавить шума.

Это предположение.

тут уже я что то запутался...

any way   РСА  линеен он ничего не искажает, если есть все компоненты то можно собрать обратно то что ты разложил без потерь

 
mytarmailS:

тут уже я что то запутался...

any way   РСА  линеен он ничего не искажает, если есть все компоненты то можно собрать обратно то что ты разложил без потерь

значит где-то в другом подводные камни. С картинками работает хорошо с PCA, с котировками с ним хуже, хоть и быстрее

ну оно и понятно.. картинки с цифрами легко предсказываются, а рынок нестационарный. На нем твой PCA не решает, компоненты перестают быть актуальными при изменении волатильности или еще чего.

как и цифровые фильтры ))