Diskussion zum Artikel "Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 04): Die Lineare Diskriminanzanalyse"
Hallo Stephan,
Toller Artikel und toller Inhalt!. Ich habe Ihre früheren Artikel auch gerne gelesen.
Ich bin gerade dabei, meinen mq4 EA auf mq5 zu konvertieren und würde diesen Inhalt gerne in die Konvertierung einbeziehen, um die Signale, den Stoploss und das Money Management zu verbessern. Da du keinen EA beigefügt hast, ist es möglich, einen zu posten, der als Lernbeispiel für das Studium der Anwendung der DA-Techniken verwendet werden könnte?
Ich freue mich schon auf Ihre nächsten Artikel.
Vielen Dank, CapeCoddah
Gut gemacht!!!
Ich füge es zu einem Expert hinzu und bekomme beim Kompilieren diese Meldung.
'operator[]' - Konstante Variable kann nicht als Referenz übergeben werden
1.
for(int v=0;v<__S_VARS;v++)
{
_xy[p].Set(v, Data(Index+p+v+1));
2.
_xy[p].Set(__S_VARS,Data(Index+p,false));
3.
for(int v=0;v<__S_VARS;v++)
{
_z[0].Set(v,Data(Index));

- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Neuer Artikel Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 04): Die Lineare Diskriminanzanalyse :
Der Händler von heute ist ein Philomath, der fast immer (entweder bewusst oder unbewusst...) nach neuen Ideen sucht, sie ausprobiert, sich entscheidet, sie zu modifizieren oder zu verwerfen; ein explorativer Prozess, der einiges an Sorgfalt kosten sollte. Diese Artikelserie wird vorschlagen, dass der MQL5-Assistent eine Hauptstütze für Händler sein sollte.
LDA ist der PCA (Principal components analysis oder Hauptkomponentenanalyse) sehr ähnlich: Einige haben sogar gefragt, ob es nicht sinnvoll wäre, eine PCA mit anschließender LDA-Regularisierung durchzuführen (um eine Kurvenanpassung zu vermeiden). Das ist ein langes Thema, das vielleicht ein Artikel für einen anderen Tag sein sollte.
Für diesen Artikel besteht der entscheidende Unterschied zwischen den beiden Methoden zur Dimensionalitätsreduktion darin, dass die PCA versucht, die Achsen mit maximaler Varianz für den gesamten Datensatz zu finden, wobei die Annahme gilt, dass die Trennbarkeit umso größer ist, je stärker die Daten gestreut sind, während die LDA versucht, die Achsen zu finden, die die Daten auf der Grundlage der Klassifizierung tatsächlich voneinander trennen.
Aus der obigen Abbildung ist unschwer zu erkennen, dass wir mit PCA LD2 und mit LDA LD1 erhalten würden. Dies macht den Hauptunterschied (und damit die LDA-Präferenz) zwischen PCA und LDA schmerzlich deutlich: Nur weil ein Merkmal eine hohe Varianz (Streuung) aufweist, bedeutet dies nicht, dass es bei der Erstellung von Vorhersagen für die Klassen nützlich ist.
Autor: Stephen Njuki