Einsatz neuronaler Netze im Handel - Seite 14

 
TheXpert:
Ah, das ist einfach. Sobald es anfängt zu lernen, ist das genug.


Ich werde nun das neue Netz demonstrieren. Mit all den Tests.
 
TheXpert:
Ach, das ist ganz einfach. Sobald es anfängt zu lernen, ist das genug.

Reshetovs Perseptron lernt auch etwas, aber es ist offensichtlich nicht genug....

Meiner Meinung nach muss man, um von Suffizienz sprechen zu können, irgendwie lernen, die Ergebnisse des Trainings auf OV in Abhängigkeit von der Trainingsdauer (Anzahl der Eingabebeispiele) zu analysieren, und OOS allein ist hier keine Hilfe. Ich stolpere schon seit langem über diesen Ort, ich fühle, dass die Wahrheit irgendwo in der Nähe ist, aber ich kann sie nicht fassen.

 
Figar0:

Ich stolpere schon lange an diesem Ort herum, ich spüre, dass die Wahrheit irgendwo in der Nähe ist, aber ich bekomme sie nicht zu fassen.

Ich weiß nicht, das ist das Elementare daran.
 
Figar0:

Reshetovs Perseptron lernt auch etwas, aber es ist offensichtlich nicht genug....

Meiner Meinung nach muss man, um von Suffizienz sprechen zu können, irgendwie lernen, die Ergebnisse des Trainings auf OV in Abhängigkeit von der Trainingsdauer (Anzahl der Eingabebeispiele) zu analysieren, und OOS allein ist hier keine Hilfe. Ich stolpere seit langem über diesen Ort, ich fühle, dass die Wahrheit irgendwo in der Nähe ist, aber ich kann sie nicht greifen.


Ich scheine es begriffen zu haben. Optimierung anhand einer großen Stichprobe. Ich erreiche, dass der Drawdown unter dem Nettogewinn liegt. Dann reduziere ich die Stichprobe und füge ein letztes Verfeinerungsneuron hinzu. Ich könnte mich irren. Ich werde ein Beispiel anführen.
 

Ich habe in meiner Forschung mehrere Ansätze verwendet:

1) Geben Sie dem Netzwerk einen linken Input, z.B. eine tägliche Veränderung des Sonnenwetters, und bringen Sie ihm bei, z.B. einen Monat lang mit diesem Input zu handeln. Hier soll das Netz in seiner reinen Form sein Erinnerungs-/Folgevermögen unter Beweis stellen. Dann gab er normale Eingaben. Ich habe versucht, den Unterschied zwischen den Trainingsergebnissen irgendwie zu analysieren.

2) Es wurde versucht, das Ergebnis des Trainings in Abhängigkeit von der Vergrößerung der Trainingsstichprobe zu analysieren. Bei fast allen Netzen und Konfigurationen ist bis zu einem bestimmten Zeitpunkt ein Anstieg des Ergebnisses zu verzeichnen, dann tritt in der Regel eine Stagnation ein, und eine weitere Erhöhung der Anzahl der Eingabeproben kann zu schlechteren Ergebnissen führen.

Mit diesen Forschungsergebnissen versuche ich, Rückschlüsse auf die Suffizienz des Netzes und die Dauer des Trainings zu ziehen, und ob es einen Zusammenhang zwischen beiden gibt. Deshalb bin ich in diesen Thread eingestiegen. Vielleicht hat jemand einen Vorschlag.

 
Es gibt einen kumulativen quadratischen Fehler (root-mean-square error). Sie kann für verschiedene Netze verglichen werden. Und verwenden Sie es, um festzustellen, ob es überhaupt etwas lernt.
 
TheXpert:
Es gibt einen kumulativen quadratischen Fehler (root-mean-square error). Sie kann für verschiedene Netze verglichen werden. Und verwenden Sie es, um festzustellen, ob es überhaupt etwas lernt.

Was für ein Fehler?
 
grell:
Was für ein Fehler?
Ausstieg, natürlich.
 
TheXpert:
Ausstieg, natürlich.


Und wenn die Leistung nicht vorhergesagt wird, wie dann?
 
grell:

Ich habe es irgendwie verpatzt. Optimierung anhand einer großen Stichprobe. Ich erreiche, dass der Drawdown unter dem Nettogewinn liegt. Dann reduziere ich die Stichprobe und füge ein letztes Verfeinerungsneuron hinzu. Ich könnte mich irren. Ich werde ein Beispiel veröffentlichen.
Es wäre schön, zum Beispiel würde ich gerne sehen, wie der Expert Advisor genau in der Trainingsperiode funktioniert, die Sie für erfolgreich halten.