Was soll in den Eingang des neuronalen Netzes eingespeist werden? Ihre Ideen... - Seite 37

 
Andrey Dik #:
Ich vermute, das ist das Ergebnis ohne Filter, zum Beispiel nach Zeit?





Hmm... Ich habe natürlich nicht mit Filtern getestet, aber der Punkt ist, dass die Trades mittelfristig oder intraday sind.

Der Einfluss des Zeitfilters scheint nicht stark zu sein, aber möglich ist es natürlich trotzdem.

 
Ivan Butko #:





Hmm... Ich habe nicht mit Filtern getestet, aber der Punkt ist, dass die Trades mittelfristig oder intraday sind.

Der Einfluss des Zeitfilters scheint nicht stark zu sein. Aber in jedem Fall - Sie können, natürlich.

Nein, Zeit - als Beispiel, es gibt viele Varianten, welche Filter zu verwenden (nach dem Training ich meine).
 

Ein interessantes Phänomen:


Wenn Sie dieselbe Architektur verwenden (egal welche), dann ergibt die Optimierung bei EURUSD bei Verwendung von Softmax immer Top-Sets, bei denen KAUFEN überhaupt nicht verwendet wird. Alles bleibt bei SELL und HOLD.


Ich schaue mir den Chart seit 12 Jahren an - er ist absteigend. Das heißt, der MT5-Optimierer passt die Gewichte auf der Makroebene an, um sie an die lange Laufzeit anzupassen.



Das hat zur Folge, dass BUY-eval-Aufwärtstrendbereiche ordnungsgemäß "untraded" bleiben. Wenn Sie aber eine reguläre Tangente als Ausstieg verwenden, gibt es keine Probleme.







Die Top-Sets handeln sowohl kaufen als auch verkaufen. Also habe ich diese Softmax aufgegeben, jetzt grabe ich in Architekturen und Eingaben nur mit Tangente. UPD Eine andere Sache - Trades nach oben und unten.




Und Top-Sets halten für eine lange Zeit


 
Ivan Butko #:

Interessantes Phänomen:


...


Und die Top-Sets halten lange Zeit

MLP-Architektur? Ich nehme an, die Gewichte werden durch den internen Optimierer optimiert? Was ist das Optimierungskriterium, wenn es nicht geheim ist? Und wenn es das gleiche Netz ist, aber mit einem Backprope-Algorithmus, wenn alle anderen Dinge gleich sind?

 
Andrey Dik #:

MLP-Architektur? Soweit ich weiß, werden die Gewichte durch den internen Optimierer optimiert? Was ist das Optimierungskriterium, wenn es nicht geheim ist? Und wenn das gleiche Gitter, aber mit einem Backprope-Algorithmus verwendet wird, wenn alle anderen Dinge gleich sind?

Zu viele kluge Worte

Alles, was ich verstehe, ist MLP))))))

Ja, der EA stammt aus einem alten Artikel über ein rudimentäres neuronales Netz.

Die Gewichte werden durch den Optimierer optimiert, der Input ist Zickzack, es hat sich als eines der stabilsten herausgestellt.

UPD

Ah, Kriterium - ja, das übliche Maximum des komplexen Kriteriums.

 
Ivan Butko #:

Und die Oberteile halten lange Zeit

Was ist, wenn Sie das zweite Modell noch einmal trainieren?

 
Aleksey Vyazmikin #:

Was ist, wenn Sie das zweite Modell erneut übertrainieren?





Bitte klären Sie das im Zusammenhang mit einem regulären MT5-Optimierer und einem regulären EA. Wie würde das aussehen? Nehmen Sie zwei Sets aus der Optimierungsliste (unkorreliert), kombinieren Sie sie und führen Sie sie aus? Oder haben Sie etwas anderes im Sinn

 
Ivan Butko #:
Zu viele kluge Worte

Mir war nur klar, dass es sich um MLP))))) handelt.

Ja, der EA stammt aus einem alten Artikel über ein rudimentäres neuronales Netz.

Die Gewichte werden durch den Optimierer angepasst, der Input ist ein Zickzack, es stellte sich heraus, dass es eines der stabilsten ist

UPD

Ah, das Kriterium - ja, das übliche Maximum des komplexen Kriteriums.


Experten aus der MO-Branche behaupten, dass: 1. Man kann nicht nach einem globalen Extremum einer Fitnessfunktion suchen.

2. globale Suchoptimierungsalgorithmen (der Standard-GA ist einer davon) nicht für neuronale Netze geeignet sind, man sollte alle Arten von Gradienten-Backprops für diesen Zweck verwenden.

Kurz gesagt, so wie es aussieht, machen Sie alles falsch (nach den Vorstellungen der Experten aus der MO-Branche).

 
Andrey Dik #:


Experten aus der MO-Branche argumentieren, dass: 1. Man kann nicht nach einem globalen Extremum der Fitnessfunktion suchen.

2. globale Suchoptimierungsalgorithmen (einschließlich der Standard-GA) nicht für neuronale Netze geeignet sind, sondern alle Arten von Gradienten-Backprops verwendet werden sollten.

Kurz gesagt, so wie es aussieht, machen Sie alles falsch (nach den Vorstellungen der Experten aus der MO-Branche).

Ich werde diese Schlacht also gewinnen

 
Ivan Butko #:

Dann werde ich diese Schlacht gewinnen


Ich glaube ja.