Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2405

 
Maxim Dmitrievsky:

Die Idee ist grundsätzlich richtig, aber sie erfordert nicht unbedingt ein Online-Training im wirklichen Leben, sondern kann nur während der Grundausbildung/Umschulungsphase durchgeführt und dann unverändert genutzt werden.

Nun ja, es macht Sinn, dass es beim Handel keine schweren Berechnungen geben sollte.

 
High-Frequency Financial Trading on FOREX with MDFA and R: An Example with the Japanese Yen
High-Frequency Financial Trading on FOREX with MDFA and R: An Example with the Japanese Yen
  • 2013.02.19
  • Christian Dallas Blakely
  • imetricablog.com
In my previous article on high-frequency trading in iMetrica on the FOREX/GLOBEX, I introduced some robust signal extraction strategies in iMetrica using the multidimensional direct filter approach (MDFA) to generate high-performance signals for trading on the foreign exchange and Futures market. In this article I take a brief leave-of-absence...
 

Ich habe beschlossen, die Proximity-Metriken miteinander zu vergleichen, die am besten für die Erkennung von Marktdaten geeignet sind...

Die gebräuchlichste Metrik ist "euklidisch" , die in fast 99 % der Fälle verwendet wird und so etwas wie ein Standard in der MO ist...

fast alle Cluster arbeiten daran...

So wurden 24 Metriken auf ihre Angemessenheit bei der Erkennung von neuen Marktdaten verglichen...

Liste der Metriken und Fehlerergebnisse

 [1,] "0.51"  "euclidean"  
 [2,] "0.525" "manhattan"  
 [3,] "0.51"  "minkowski"  
 [4,] "0.545" "infnorm"    
 [5,] "0.505" "ccor"       
 [6,] "0.565" "sts"        
 [7,] "0.51"  "dtw"        
 [8,] "0.52"  "edr"        
 [9,] "0.55"  "erp"        
[10,] "0.51"  "lcss"       
[11,] "0.535" "fourier"    
[12,] "0.46"  "tquest"     
[13,] "0.525" "acf"        
[14,] "0.52"  "pacf"       
[15,] "0.525" "cdm"        
[16,] "0.53"  "cid"        
[17,] "0.53"  "cor"        
[18,] "0.5"   "cort"       
[19,] "0.495" "ar.pic"     
[20,] "0.485" "int.per"    
[21,] "0.49"  "per"        
[22,] "0.52"  "mindist.sax"
[23,] "0.535" "ncd"        
[24,] "0.51"  "pdc"

Wie Sie sehen können, ist euclid nicht die beste Lösung für die Preise ))

 
mytarmailS:

Ich habe beschlossen, die Proximity-Metriken miteinander zu vergleichen, die am besten für die Erkennung von Marktdaten geeignet sind...

Die gebräuchlichste Metrik ist die "euklidische" , die in fast 99 % der Fälle verwendet wird und so etwas wie ein Standard in der MO ist...

fast alle Cluster arbeiten daran...

So wurden 24 Metriken auf ihre Angemessenheit bei der Erkennung von neuen Marktdaten verglichen...

Liste der Metriken und Fehlerergebnisse

Wie Sie sehen können, ist euclid bei weitem nicht die beste Lösung für die Preise ))

Dies ist der Fall, wenn Sie nur Einstiegspreise haben. Und wenn Sie auch die Zeit von 0 Bar bis zu dem Bar, an dem Sie den Preis betrachten, haben, und wenn Sie auch Volumina (Tick/real) oder etwas anderes haben. Euklidisch, und in der Tat wird jeder Abstand zwischen den Chips unzureichend sein. Wie kann man 5 Pips Preis, 5 Minuten Bars, 5 Stunden Bars, 5 Lots Volumen ausgleichen? Das können Sie nicht.
Und der Clusterizer wird sie als gleichwertig betrachten.
 
elibrarius:
Dies ist der Fall, wenn Sie nur Einstiegspreise haben. Und wenn Sie auch die Zeit von 0 Bar bis zu dem Bar, wo Sie den Preis betrachten, und wenn Sie auch Volumina (tick/real) oder etwas anderes haben. Euklidisch, und in der Tat wird jeder Abstand zwischen den Chips unzureichend sein. Wie können Sie 5 Pips Preis, 5 Minuten Bars, 5 Stunden Bars, 5 Lots Volumen ausgleichen? Das können Sie nicht.
Und der Clusterizer wird sie als gleichwertig betrachten.

Sie können die Mahalanobis-Metrik oder eine andere Art der Datennormalisierung verwenden.

 
Aleksey Nikolayev:

Sie könnten die Mahalanobis-Metrik oder eine andere Art der Datennormalisierung verwenden.

Bei der Normalisierung werden lediglich die Skalen verändert. Es macht aus einer Kugel ein Ellipsoid - wenn die mah-Werte nicht übereinstimmen. Sie werden 5 Punkte mit 2 Stunden und 7 Losen ausgleichen.
In jedem Fall wird warm mit weich gleichgesetzt. Nach der Normalisierung wird es warm und flauschig sein).

 
elibrarius:

Die Normalisierung wird einfach die Massen verändern. Die Kugel wird ein Ellipsoid - wenn die mah-Werte nicht übereinstimmen. Sie werden 5 Punkte mit 2 Stunden und 7 Losen ausgleichen.
In jedem Fall wird warm mit weich gleichgesetzt. Nach der Normalisierung wird es Ihnen warm ums Herz))

Manchmal kann man ihre Verteilungsfunktion für SBs verwenden, um dieMerkmale zu normalisieren. Zum Beispiel sind die Zickzack-Knielängen für SBs exponentiell verteilt usw. Wenn die Verteilung nicht genau bekannt ist, kann sie durch eine Monte-Carlo-Simulation angenähert werden.

 
elibrarius:

Die Normalisierung wird einfach die Massen verändern. Die Kugel wird ein Ellipsoid - wenn die mah-Werte nicht übereinstimmen. Sie werden 5 Punkte mit 2 Stunden und 7 Losen ausgleichen.
In jedem Fall wird warm mit weich gleichgesetzt. Nach der Normalisierung wird es Ihnen warm ums Herz))

Warm mit flauschig ist gleichzusetzen -

elibrarius:
5-Stunden-Balken und 5 Lose von Volumen
 
Aleksey Nikolayev:

Sie könnten die Mahalanobis-Metrik oder eine andere Art der Datennormalisierung verwenden.

Warum haben alle berühmten Mathematiker so komplizierte Namen?

 
geheim:

Warum haben alle berühmten Mathematiker so komplizierte Namen?

Indisch) Sie haben kompliziertere).