Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2269

 
Maxim Dmitrievsky:

Ich habe meinen Gan geschrieben, da ist nichts Kompliziertes dabei. Es ist allerdings nicht rekursiv, ich muss es neu machen.

Ein Beispiel auf Torch.

Hier ein weiteres Beispiel

Wenn ich genug Zeit habe, werde ich versuchen, es herauszufinden.

 
Rorschach:

Ich werde Zeit haben, um es herauszufinden.

Ich habe einen Vergleich verschiedener generativer Modelle aus der obigen Bibliothek durch meine Lib. Es hat sich herausgestellt, dass GMM besser für tabellarische Daten (Datenrahmen mit Inkrementen) funktioniert. An zweiter Stelle stehen die Kopulas, die am effizientesten sind. Neuronale Netzmodelle wie Tabular Gan und andere funktionierten schlechter. Aber vielleicht habe ich etwas falsch gemacht. Es gibt auch diese Option.

 
Maxim Dmitrievsky:

Ich habe einen Vergleich verschiedener generativer Modelle aus der obigen Bibliothek durch meine Lib. Es hat sich herausgestellt, dass GMM besser für tabellarische Daten (Datenrahmen mit Inkrementen) funktioniert. An zweiter Stelle stehen die Kopulas, die am effizientesten sind. Neuronale Netzmodelle wie Tabular Gan und andere funktionierten schlechter. Aber vielleicht habe ich etwas falsch gemacht. Es gibt auch diese Option.

Die Netze scheinen eine geringe Rauschtoleranz zu haben, vielleicht sind die Ergebnisse deshalb schlechter.

Ich wollte in jeder Epoche Rauschen in die Daten mischen, aber ich bin nie dazu gekommen.

 
Rorschach:

Die Netze scheinen Rauschen nicht gut zu vertragen, was der Grund für die schlechteren Ergebnisse sein könnte.

Ich wollte den Daten in jeder Epoche Rauschen hinzufügen, bin aber nie dazu gekommen.

Es sieht so aus, als ob sie sich sehr anstrengen würden. Das Ergebnis sind ähnliche Muster mit geringen Abweichungen. Egal, wie Sie den latenten Vektor ändern, Sie erhalten Werte, die zu nahe beieinander liegen.

 
Maxim Dmitrievsky:

Es sieht so aus, als ob sie es wirklich schwer haben. Das Ergebnis sind ähnliche Muster mit geringen Abweichungen. Egal, wie Sie den latenten Vektor ändern, die Werte liegen zu nahe beieinander.

Wie wäre es, die Tiefe der Geschichte zu verringern?

 
Rorschach:

Wie wäre es mit einer Verringerung der Tiefe der Geschichte?

Ich habe verschiedene Dinge getan, die Ausgabe von sowohl Autoencoder als auch gm ergibt stark gemittelte Werte. Wenn Autoencoder per Definition komprimieren, ist es unklar, warum GANs dies tun. Auch ein Schulabbruch hilft nicht, wie es scheint.

 
Maxim Dmitrievsky:

Die Ausgabe sowohl des Autoencoders als auch des gm ergibt stark gemittelte Werte. Wenn der Autoencoder per Definition komprimiert, ist es unklar, warum die GANs dies tun. Auch ein Schulabbruch hilft nicht, wie es scheint.

Mittelwertbildung und Unschärfe sind in etwa das Gleiche, oder? Ich habe diesen Artikel gefunden.

 
Rorschach:

Mittelwertbildung und Unschärfe sind in etwa das Gleiche, oder? Ich habe diesen Artikel gefunden.

Nun, ja, Datenkompression.

Bei Zahlen verstehe ich das, aber tabellarische Daten funktionieren schlechter.

Deshalb gibt es TabularGAN. In dem Paket oben.

 
Maxim Dmitrievsky:

Nun, ja, Informationskompression.

Ich verstehe das mit den Zahlen, aber tabellarische Daten sind noch schlimmer.

Lesen Sie die Diagonale, es scheint sich um eine andere Rauschverteilung und ungeeignete Metriken zu handeln.

Am besten mit Testdaten unter Gewächshausbedingungen überprüfen.
 
Rorschach:

Interessantes Thema der Netzumkehrung.

Rauschen in die Eingänge einspeisen. Erhalten Sie ein Spektrum am Ausgang.

https://arxiv.org/pdf/1806.08734.pdf