Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 21): Variierter Autoencoder (VAE)"

 

Neuer Artikel Neuronale Netze leicht gemacht (Teil 21): Variierter Autoencoder (VAE) :

Im letzten Artikel haben wir uns mit dem Algorithmus des Autoencoders vertraut gemacht. Wie jeder andere Algorithmus hat auch dieser seine Vor- und Nachteile. In seiner ursprünglichen Implementierung wird der Autoencoder verwendet, um die Objekte so weit wie möglich von der Trainingsstichprobe zu trennen. Dieses Mal werden wir darüber sprechen, wie man mit einigen ihrer Nachteile umgehen kann.

Um die Funktionsweise des Variierten Autoencoders zu testen, werden wir das Modell aus den vorherigen Artikeln verwenden. Speichern Sie ihn in einer neuen Datei „vae.mq5“. In diesem Modell lieferte der Encoder 2 Werte auf der 5. neuronalen Schicht. Um den Betrieb des Variierten Autoencoders richtig zu organisieren, habe ich die Schichtgröße am Encoderausgang auf 4 Neuronen erhöht. Ich habe auch unsere neue neuronale Schicht eingefügt, die mit dem latenten Zustand des Variierten Autoencoders als 6. Neuron. Das Modell wurde mit EURUSD-Daten und dem H1-Zeitrahmen trainiert, ohne dass die Parameter geändert wurden. Als Zeitraum für die Modellbildung wurden die letzten 15 Jahre herangezogen. Die folgende Abbildung zeigt eine vergleichende Grafik der Lerndynamik von mehrschichtigen und variierenden Autokodierern.

Vergleichende Lernergebnisse

 

Wie Sie sehen können, zeigte der Variierter Autoencoder nach den Ergebnissen des Modelltrainings während des gesamten Trainingszeitraums einen deutlich geringeren Datenwiederherstellungsfehler. Darüber hinaus zeigte der Variierter Autoencoder eine höhere Dynamik bei der Fehlerreduzierung.

Auf der Grundlage der Testergebnisse können wir schließen, dass Variations-Auto-Coder bei der Lösung des Problems der Extraktion von Zeitreihenmerkmalen am Beispiel der EURUSD-Preisdynamik ein großes Potenzial für die Extraktion individueller Musterbeschreibungsmerkmale haben.

Autor: Dmitriy Gizlyk