Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 22): Unüberwachtes Lernen von rekurrenten Modellen"

 

Neuer Artikel Neuronale Netze leicht gemacht (Teil 22): Unüberwachtes Lernen von rekurrenten Modellen :

Wir untersuchen weiterhin Modelle und Algorithmen für unüberwachtes Lernen. Diesmal schlage ich vor, dass wir die Eigenschaften von AutoAutoencodern bei der Anwendung auf das Training rekurrenter Modelle diskutieren.

Die Parameter der Modellprüfung waren dieselben: EURUSD, H1, letzte 15 Jahre. Standardeinstellungen der Indikatoren. Geben Sie Daten über die letzten 10 Kerzen in den Encoder ein. Der Decoder ist darauf trainiert, die letzten 40 Kerzen zu dekodieren. Die Testergebnisse sind in der nachstehenden Tabelle aufgeführt. Die Daten werden in den Encoder eingegeben, nachdem die Bildung jeder neuen Kerze abgeschlossen ist.

RNN Autoencoder Trainingsergebnisse

Wie Sie in der Tabelle sehen können, bestätigen die Testergebnisse die Tauglichkeit dieses Ansatzes für das unüberwachte Pre-Training von rekurrenten Modellen. Beim Testtraining des Modells hat sich der Modellfehler nach 20 Lernepochen mit einer Verlustrate von weniger als 9 % nahezu stabilisiert. Außerdem werden Informationen über mindestens 30 frühere Iterationen im latenten Zustand des Modells gespeichert.

Autor: Dmitriy Gizlyk