Diskussion zum Artikel "Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 04): Die Lineare Diskriminanzanalyse"

 

Neuer Artikel Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 04): Die Lineare Diskriminanzanalyse :

Der Händler von heute ist ein Philomath, der fast immer (entweder bewusst oder unbewusst...) nach neuen Ideen sucht, sie ausprobiert, sich entscheidet, sie zu modifizieren oder zu verwerfen; ein explorativer Prozess, der einiges an Sorgfalt kosten sollte. Diese Artikelserie wird vorschlagen, dass der MQL5-Assistent eine Hauptstütze für Händler sein sollte.

LDA ist der PCA (Principal components analysis oder Hauptkomponentenanalyse) sehr ähnlich: Einige haben sogar gefragt, ob es nicht sinnvoll wäre, eine PCA mit anschließender LDA-Regularisierung durchzuführen (um eine Kurvenanpassung zu vermeiden). Das ist ein langes Thema, das vielleicht ein Artikel für einen anderen Tag sein sollte.

Für diesen Artikel besteht der entscheidende Unterschied zwischen den beiden Methoden zur Dimensionalitätsreduktion darin, dass die PCA versucht, die Achsen mit maximaler Varianz für den gesamten Datensatz zu finden, wobei die Annahme gilt, dass die Trennbarkeit umso größer ist, je stärker die Daten gestreut sind, während die LDA versucht, die Achsen zu finden, die die Daten auf der Grundlage der Klassifizierung tatsächlich voneinander trennen.

lda

Aus der obigen Abbildung ist unschwer zu erkennen, dass wir mit PCA LD2 und mit LDA LD1 erhalten würden. Dies macht den Hauptunterschied (und damit die LDA-Präferenz) zwischen PCA und LDA schmerzlich deutlich: Nur weil ein Merkmal eine hohe Varianz (Streuung) aufweist, bedeutet dies nicht, dass es bei der Erstellung von Vorhersagen für die Klassen nützlich ist.

Autor: Stephen Njuki