트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2253

 
블라디미르 페레르벤코 :

자, 예를 들어 (파이썬 코드에서 모든 것이 명확하지는 않습니다). 그리고 이 BAE의 훈련은 어디에 있습니까?

pyTorch에 있습니까?

모든 것이 가장자리에 있습니다

인코더가 작동하고 있습니다. 단지 결과가 더 나빠질 뿐입니다.

간단히 말해서 Kullback-Leibner 거리 모델을 통해 학습하는 것은 매우 어렵습니다. 이것은 변형 인코더의 설명된 문제입니다.

사실, 알고리즘은 2-3 에포크 후에 "수렴"하고 아무 일도 일어나지 않습니다.

Variational autoencoder의 주요 단점 중 하나는 KL 발산 항의 적분에 소수의 분포를 제외하고는 폐쇄형 분석 솔루션이 없다는 것입니다. 또한 잠재 코드에 대해 이산 분포를 사용하는 것은 간단하지 않습니다.   z z . 이는 일반적으로 이산 변수를 통한 역전파가 불가능하여 모델을 효율적으로 훈련시키기 어렵기 때문입니다. VAE 설정에서 이를 수행하는 한 가지 접근 방식이 도입되었습니다.   여기
Discrete Variational Autoencoders
  • arxiv.org
Download PDF Probabilistic models with discrete latent variables naturally capture datasets composed of discrete classes. However, they are difficult to train efficiently, since backpropagation through discrete variables is generally not possible. We present a novel method to train a class of probabilistic models with discrete latent variables...
 
mytarmailS :

네트워크 가중치와 이를 변경할 수 있는 권한이 있습니까?

당연하지만 내가 왜

 
막심 드미트리예프스키 :

모든 것이 가장자리에 있습니다

인코더가 작동하고 있습니다. 단지 결과가 더 나빠질 뿐입니다.

간단히 말해서 Kullback-Leibner 거리 모델을 통해 학습하는 것은 매우 어렵습니다. 이것은 변형 인코더의 설명된 문제입니다.

사실, 알고리즘은 2-3 에포크 후에 "수렴"하고 아무 일도 일어나지 않습니다.

Variational autoencoder의 주요 단점 중 하나는 KL 발산 항의 적분에 소수의 분포를 제외하고는 폐쇄형 분석 솔루션이 없다는 것입니다. 또한 잠재 코드에 대해 이산 분포를 사용하는 것은 간단하지 않습니다.   z z . 이는 일반적으로 이산 변수를 통한 역전파가 불가능하여 모델을 효율적으로 훈련시키기 어렵기 때문입니다. VAE 설정에서 이를 수행하는 한 가지 접근 방식이 도입되었습니다.   여기

기사는 다른 것에 관한 것입니다. 여기에서 모든 예측 변수가 이산 [0, 1]인 경우를 고려합니다. 그런 다음 문제입니다. 신경망은 변동이 없는 예측 변수를 이해하지 못합니다.

귀하의 경우는 약간 다릅니다. 이해합니다. 입력 예측 변수(연속)와 대상(이산 행렬 ncol=3)을 결합했습니다. 실제로 훈련 없이 대상을 포함하여 들어오는 것을 생성(복원)하는 잠재된 것의 질적 분포를 얻으려고 합니다. 내가 당신을 올바르게 이해 했습니까? 잘 작동하지 않습니다. 이 기사는 솔루션을 보여줍니다. RBM을 통해 이산 타겟을 연속 타겟으로 변환하고 다른 예측 변수와 결합한 다음 BAE(학습!)로 이동합니다. 그리고 훈련된 BAE에서 예제를 추출하고 RBM을 통해 대상을 다시 복원합니다. 어려워진다. 하지만 효과가 있을 수 있습니다.

일반적인 AE 크랭크로 시도해 보겠습니다.

행운을 빕니다

 
블라디미르 페레르벤코 :

기사는 다른 것에 관한 것입니다. 여기에서 모든 예측 변수가 이산 [0, 1]인 경우를 고려합니다. 그런 다음 문제입니다. 신경망은 변동이 없는 예측 변수를 이해하지 못합니다.

귀하의 경우는 약간 다릅니다. 이해합니다. 입력 예측 변수(연속)와 대상(이산 행렬 ncol=3)을 결합했습니다. 실제로 훈련 없이 대상을 포함하여 들어오는 것을 생성(복원)하는 잠재된 것의 질적 분포를 얻으려고 합니다. 내가 당신을 올바르게 이해 했습니까? 잘 작동하지 않습니다. 이 기사는 솔루션을 보여줍니다. RBM을 통해 이산 타겟을 연속 타겟으로 변환하고 다른 예측 변수와 결합한 다음 BAE(학습!)로 이동합니다. 그리고 훈련된 BAE에서 예제를 추출하고 RBM을 통해 대상을 다시 복원합니다. 어려워진다. 하지만 효과가 있을 수 있습니다.

일반적인 AE 크랭크로 시도해 보겠습니다.

행운을 빕니다

CVAE가 있습니다. 인코더 및 디코더 클래스 레이블(1,0)에서 무엇보다도. 하지만 VAE와 CVAE를 비교해보니 결과는 크게 다르지 않다(같은 보통)

대상은 복원되지 않지만 기능을 생성할 때 설정됩니다. 저것들. 기호를 생성할 대상입니다. 이미지 생성이 있는 예에서는 이렇게 하고 타겟만 더 많아 밴 핫이 됩니다.

VAE 및 GAN 비교표를 살펴보았습니다. 두 번째 것은 훨씬 더 잘 생성되며 인코더에 침을 뱉을 것 같습니다. 바퀴를 재발명할 의향 없음

아마도 연속형으로 변환하는 것이 합리적일 수 있습니다. 예 .. 그러나 사실은 아닙니다.

내가 뭔가 잘못하고있을 가능성이 적습니다 ..하지만 그 전에 고양이에 대해 훈련했습니다)

Z.Y. 숫자가 있는 예에서도 10 Epoch만 학습한 다음 오류가 더 이상 떨어지지 않습니다.

 
관련 벡터 방법을 시도한 사람이 있습니까?
 

Autoencoder는 데이터를 더 낮은 차원으로 압축하거나 데이터에서 의미 벡터를 생성하는 데 더 적합합니다. GAN이 데이터 생성에 더 적합한 경우

https://medium.com/lis-computer-vision-blogs/gans-cgans-ae-aae-ave-caae-cave-2e7d23255b52

흐릿한 결과는 데이터 압축 때문이라고 생각합니다. 뉴런의 수를 늘리더라도 여전히 일종의 압축이 있어 다른 분포로 이동합니다. 새 데이터는 항상 번지거나 매끄럽게 됩니다. 그리고 난 얼룩이 필요하지 않습니다, 믿을만한 샘플이 필요합니다.

PCA 기능을 압축한 다음 GMM으로 구동한 다음 PCA에서 압축을 해제하면 정확히 동일한 daub을 얻을 수 있습니다. 나는 이것을했고, 그것은 또한 daub으로 밝혀졌습니다.

인코더는 하나의 병에 PCA + GMM입니다. 비유를 하자면

GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
  • Li Yin
  • medium.com
The difference between each other. The purpose of this article is to see the difference of concepts between GANs, conditional GANs, Autoencoder (AE), adversarial autoencoder (AAE), and conditional adversarial autoencoder (CAAE). Unconditional GAN The generator ( G ) and discriminator ( D ) are both feedforward neural networks which play a...
 
알렉세이 비아즈미킨 :
관련 벡터 방법을 시도한 사람이 있습니까?

첫 번째가 되다

막심 드미트리예프스키 :

PCA 기능을 압축한 다음 GMM으로 구동한 다음 PCA에서 압축을 해제하면 정확히 동일한 daub을 얻을 수 있습니다. 나는 이것을했고, 그것은 또한 daub으로 밝혀졌습니다.

코더는 한 병에 PCA + GMM을 비유하자면

글쎄, PCA의 모든 구성 요소를 그대로 두십시오. 그러면 얼룩이 없을 것입니다. 명확한 그림이 있을 것입니다.

 
mytarmailS :

첫 번째가 되다

글쎄, PCA의 모든 구성 요소를 그대로 두십시오. 그러면 얼룩이 없을 것입니다. 명확한 그림이 있을 것입니다.

생성된 역변환 과정에서 많은 노이즈가 추가됩니다.

아닐수도 있지만..그렇게 보이네요
 
막심 드미트리예프스키 :

생성된 역변환 과정에서 많은 노이즈가 추가됩니다.

이해하지 못했다, 흠 이미 소음을 추가? 또는 어떻게?

 
mytarmailS :

이해하지 못했습니다, 흠 이미 소음을 추가? 또는 어떻게?

별로 생각 안하고 골라서 추측만 했음

흠 개가 전에 보지 못한 기능을 제공합니다. 하지만 내가 본 것과 비슷합니다. 역 변환을 사용하면 어떻게 든 영향을 줄 수 있습니다. 노이즈를 추가합니다.

이것은 가정입니다.
사유: