Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 2): Netzwerktraining und Tests"

 

Neuer Artikel Neuronale Netze leicht gemacht (Teil 2): Netzwerktraining und Tests :

In diesem zweiten Artikel werden wir uns weiter mit Neuronalen Netzen befassen und ein Beispiel für die Verwendung unserer geschaffenen Klasse CNet in Expert Advisors besprechen. Wir werden mit zwei Modellen neuronaler Netze arbeiten, die ähnliche Ergebnisse sowohl hinsichtlich der Trainingszeit als auch der Vorhersagegenauigkeit zeigen.

Die erste Epoche hängt stark von den Gewichten des Neuronalen Netzes ab, die in der Anfangsphase zufällig ausgewählt wurden.

Nach 35 Epochen Training nahm der Unterschied in der Statistik leicht zu - das Regressionsmodell des Neuronalen Netzes schnitt besser ab:

Wert Regression Neuronales Netz Klassifikation Neuronales Netz
Mittlerer quadratischer Fehler 0.68 0.78
Trefferwahrscheinlichkeit 12.68% 11.22%
Nicht erkannte Fraktale 20.22% 24.65%

Ergebnis der 35. Trainingsepoche des Regressions-Neuronalen Netzes (1 Ausgangsneuron) Ergebnis der 35. Trainingsepoche des klassifizierenden Neuronalen Netzes (3 Ausgangsneuronen)

Die Testergebnisse zeigen, dass beide Varianten der Organisation des Neuronalen Netzes ähnliche Ergebnisse in Bezug auf Trainingszeit und Vorhersagegenauigkeit erzielen. Gleichzeitig zeigen die erzielten Ergebnisse, dass das Neuronale Netz zusätzliche Zeit und Ressourcen für das Training benötigt. Wenn Sie die Lerndynamik des neuronalen Netzes analysieren möchten, sehen Sie sich bitte die Screenshots der einzelnen Lernepochen im Anhang an.

Autor: Dmitriy Gizlyk