トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2253

 
Vladimir Perervenko:

としましょう(Pythonのコードのすべてが意味をなしているわけではありません)。このBAEの訓練はどこで行われているのでしょうか?

pyTorchにあるのでしょうか?

オールトラック

コーダーは動くが、結果が悪い。

要するに、カルバック・ライブナー距離モデルは学習が非常に難しく、バリエーションコーダーの問題として記述されているのです

実際、アルゴリズムは2-3エポック後に「収束」し、それ以降は何も起こりません。

変分オートエンコーダの主な欠点は、KLダイバージェンス項の積分が、一握りの分布を除いて閉形式の解析解を持たないことである。さらに、潜在コードz z に離散分布を用いることは、簡単ではないこれは、一般に離散変数によるバックプロパゲーションが不可能であり、効率的なモデルの学習が困難であるためである。これをVAEの設定で行う一つのアプローチとして、今回紹介 した
Discrete Variational Autoencoders
  • arxiv.org
Download PDF Probabilistic models with discrete latent variables naturally capture datasets composed of discrete classes. However, they are difficult to train efficiently, since backpropagation through discrete variables is generally not possible. We present a novel method to train a class of probabilistic models with discrete latent variables...
 
mytarmailS:

ネットワークウェイトにアクセスし、それを変更することができますか?

そうですね、でもその必要はありません。

 
マキシム・ドミトリエフスキー

トーチの上に

コーダーは機能しますが、結果が悪くなります。

つまり、カルバック・ライブナー距離モデルは学習が非常に難しく、これはバリエーションコーダーの問題として説明されています

実際、アルゴリズムは2-3エポックの後に「収束」し、それ以降は何も起こりません。

変分オートエンコーダの主な欠点は、KLダイバージェンス項の積分が、一握りの分布を除いて閉形式の解析解を持たないことである。さらに、潜在コードz z に離散分布を用いることは、簡単ではないこれは、一般に離散変数によるバックプロパゲーションが不可能であり、効率的なモデルの学習が困難なためである。これをVAEの設定で行う一つのアプローチとして、今回紹介 した

記事には別のことが書かれています。これは,すべての予測変数が離散的な[0, 1]である場合を扱っている.では、問題があります。ニューラルネットワークは、変動がゼロの予測子を理解しません。

あなたの場合は、私が理解している限り、少し違います。予測変数(連続)とターゲット(離散行列 ncol=3)を入力で組み合わせています。潜在的なものの質的分布を求め、そこから、訓練なしで仮想的に目標値を含む入力値を生成(復元)しようとするものである。質的な成功は望めないということですね。この記事では、その解決策を紹介しています。RBMで離散的な対象を連続的に変換するため、他の予測因子と接続し、さらにVAE(トレーニング!)へ。そして、学習したVAEから例を取り出し、RBMで再度ターゲットを復元する。どちらかというと複雑なんです。でも、うまくいくかもしれません。

普通のAEで試してみます。

グッドラック

 
Vladimir Perervenko:

記事では、少し違う事柄を扱っています。これは,すべての予測変数が離散的な[0, 1]である場合を扱っている.では、問題があります。ニューラルネットワークは、変動がゼロの予測子を理解しません。

あなたの場合は、私が理解している限り、少し違います。予測変数(連続)とターゲット(離散行列 ncol=3)を入力で組み合わせています。潜在能力の質的分布を求め、そこから、学習なしで仮想的に目的語を含む入力語を生成(復元)しようとするものです。質的な成功は望めないということですね。この記事では、その解決策を紹介しています。RBMで離散的な対象を連続的に変換するため、他の予測因子と接続し、さらにVAE(トレーニング!)へ。そして、学習したVAEから例を取り出し、RBMで再度ターゲットを復元する。どちらかというと複雑なんです。でも、うまくいくかもしれません。

普通のAEで試してみます。

グッドラック

私はCVAEです。エンコーダとデコーダのクラスラベル(1,0)などに。しかし、VAEとCVAEの比較をしてみると、結果は大差ない(同じように平凡な結果)。

ターゲットは再構成されたものではなく、特徴量を生成する際に設定されたものである。つまり、どのターゲットに対して特徴を生成するかということである。画像生成の例では、これが行われていますが、ターゲットが多いので、バンホットで行われています。

VAEとGANの比較表を見ていました。後者の方が生成に優れている、コーダーに唾をつけようかと思うほどだ。車輪の再発明にはあまり乗り気ではありません。

連続式に変換するのは意味があるかもしれない、そうだ...しかし、確実ではないな。

私が何か間違っている可能性もありますが・・・以前、子猫の練習をしたことがあります )

Z.U.数字を使った例でも、10エポックしか学習せず、その後、誤差の減少が止まってしまうのです

 
該当するベクター方式を試された方はいらっしゃいますか?
 

オートエンコーダーは、データを低次元に圧縮したり、データから意味ベクトルを生成したりするのに適している。GANがよりデータ生成に適しているところ

https://medium.com/lis-computer-vision-blogs/gans-cgans-ae-aae-ave-caae-cave-2e7d23255b52

データ圧縮のため、結果がぼやけているのだと思います。神経細胞の数を増やしても、圧縮、つまり別の分布にシフトしてしまうのです。新しいデータには必ずスミア、スムージングなどが施されます。そして、スミ入れではなく、もっともらしいサンプルが欲しいのです。

属性をPCAに圧縮してGMMにダンプし、PCAから解凍しても全く同じスメアが得られます。私もやったことがありますが、とてもモコモコした感じに仕上がりました。

CoderはPCAとGMMを1つにしたようなものです。

GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
GANs, cGANs, AE, AAE, AVE, CAAE, CAVE
  • Li Yin
  • medium.com
The difference between each other. The purpose of this article is to see the difference of concepts between GANs, conditional GANs, Autoencoder (AE), adversarial autoencoder (AAE), and conditional adversarial autoencoder (CAAE). Unconditional GAN The generator ( G ) and discriminator ( D ) are both feedforward neural networks which play a...
 
Aleksey Vyazmikin:
該当するベクトル法を試された方はいらっしゃいますか?

一番手になる

マキシム・ドミトリエフスキー

PCAの属性を圧縮してからGMMに変換し、PCAから解凍すると、全く同じファジーな外観を得ることができます。やってみて、同じような混乱に陥ったことがある。

Encoderは、例えるならPCA+GMMを1つにしたようなものです。

だから、PCA部品をすべて残せば、汚れもつかず、鮮明な画像が得られます。

 
mytarmailS:

あなたが最初の一人になる。

だから、PCAの部品を全部残しておけば、汚れは出ないし、鮮明に映る。

逆変換でノイズが増えるのでダメです

かと思えば、そうでもなさそうであったり。
 
マキシム・ドミトリエフスキー

それはない、長粒子の逆変換は多くのノイズを追加します。

よくわからないのですが、gmmはすでにノイズを付加しているのでしょうか?

 
mytarmailS:

よくわからないのですが、gmmはすでにノイズを増やしているのでしょうか? それとも何でしょうか?

あまり深く考えず、ただ、いろいろと調べてみた結果、そう思っただけなんです。

gmmは、今までにない機能を与えてくれるでしょう。でも、似たようなものです。逆変換の場合、何らかの効果があるのかもしれませんね。ノイズを加える。

推測の域を出ない。