Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 487

 
Iwan Negreshniy:

Zufallswälder sollen geringe Fehler aufweisen, da alle Variablen in Entscheidungsbäumen verwendet werden und es keine Beschränkung der Speichernutzung wie bei neuronalen Netzen gibt - die Anzahl der Neuronen. Dort können Sie nur einzelne Operationen verwenden, um das Ergebnis zu "verwischen", wie z. B. Ebenenbeschränkung, Baumbeschneidung oder Backgammon. Ich weiß nicht, ob die MQ-Implementierung von alglib über Pruning verfügt, Bagging schon

Wenn diese Variable kleiner als 1 ist, sollte der Fehler ansteigen.


ist es, aber der Fehler wurde immer noch durchschnittlich angezeigt, wie oben beschrieben... jetzt ist es normal

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

Übrigens steigt der Fehler auch bei einer Verringerung von r um o,1 sehr stark an. Über r 0,9 unter 0,8

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

Bei r = 0,66 (wie in der klassischen RF-Version)

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

Und die Ergebnisse zeigen, dass die Multiplikationstabelle bereits schlecht löst

 
Iwan Negreshniy:

Zufallswälder sollen geringe Fehler aufweisen, weil alle Variablen in Entscheidungsbäumen verwendet werden und es keine Beschränkung der Speichernutzung wie bei neuronalen Netzen gibt - die Anzahl der Neuronen. Dort können Sie nur einzelne Operationen verwenden, um das Ergebnis zu "verwischen", wie z. B. Ebenenbeschränkung, Baumbeschneidung oder Backgammon. Ich weiß nicht, ob es in der MQ-Implementierung von alglib ein Pruning gibt, aber es gibt ein Tagging

Wenn diese Variable kleiner als 1 gesetzt wird, sollte der Fehler steigen.

damit der Fehler so klein ist wie der von @Maxim Dmitrievsky
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
Sie müssen 1 falsches Geschäft pro 50000000000000000000000 machen. Das ist bei keinem Instrument möglich.

meinen Respekt.
 
Andrey Kisselyov:
damit der Fehler so klein ist wie der von @Maxim Dmitrievsky
ich brauche 1 falsches Geschäft pro 50000000000000000000000 . es ist unmöglich, es auf jedem Instrument zu machen.

Mit freundlichen Grüßen.

Ich sage Ihnen, dass sich jeder Entscheidungsbaum praktisch alle Muster merkt und dass es in einer Trainingsmenge mit 100% Sampling, d.h. R=1, überhaupt keinen Fehler geben kann.

Ja, es ist eine Überanpassung, aber so funktioniert der Algorithmus, und deshalb werden in Random Forests alle möglichen Tricks verwendet.

 
Iwan Negreshniy:

Was die Angebote betrifft, so sage ich Ihnen, dass sich jeder Entscheidungsbaum praktisch alle Muster merkt und dass es bei einer 100%igen Stichprobe, d.h. R=1, überhaupt keinen Fehler geben kann.


dafür muss man aus der Tasche schauen, um das Modell zu schätzen, aber dann sollte man r=0,66 maximal einstellen.

 
Iwan Negreshniy:

Was die Angebote betrifft, so sage ich Ihnen, dass sich jeder Entscheidungsbaum praktisch alle Muster merkt und dass es bei einer 100%igen Stichprobe, d.h. R=1, überhaupt keinen Fehler geben kann.

Aber aus deinen Worten entnehme ich, dass sich jeder Baum an ein bestimmtes Muster erinnert, das sich später nicht wiederholen darf. Da es aber keine Wiederholung gibt, können wir nicht sagen, wie es funktioniert, und nehmen die Wahrscheinlichkeit 1 als Axiom, anstatt 0,5 anzunehmen, da es nicht bekannt ist.

mit Respekt.
 
Maxim Dmitrievsky:

dafür müssen Sie aus der Tasche schauen, um das Modell zu bewerten, aber dann r=0,66 max setzen ja

Wahrscheinlich müssen Sie es aufheben, aber ein Bagging ist keine sehr starke Technik für Vorhersagen - IMHO
 
Iwan Negreshniy:
Wahrscheinlich müssen wir noch zulegen, aber Tagging allein ist IMHO keine sehr starke Technologie für Vorhersagen.

Nun, das war's erst einmal... :) wenn ich dann eine anständige Lib mit Diplinking auftreibe, werde ich es mir ansehen

aber die Geschwindigkeit!

 
Maxim Dmitrievsky:

ist es, aber der Fehler wurde immer noch durchschnittlich angezeigt, wie oben beschrieben... jetzt ist es normal

Übrigens, auch wenn r um o,1 verringert wird, steigt der Fehler stark an. Über r 0,9 unter 0,8

Bei r = 0,66 (wie in der klassischen RF-Version)

Und ich sehe an den Ergebnissen, dass die Multiplikationstabelle schon sehr schlecht gelöst ist.

Als ich den Schwellenwert für das Signal NS erhöhte, kompensierte ich dies durch die Erhöhung der Menge der erforderlichen Eingabedaten, was zur Folge hatte, dass der Fehler abnahm, aber auch die Varianten für die Eingabe weniger wurden.






Mit freundlichen Grüßen.
 
Andrey Kisselyov:
Ich bin nicht auf die Funktionsweise des Waldes eingegangen, aber aus Ihren Worten entnehme ich, dass sich jeder Baum ein Muster merkt, das sich in der Folge nicht wiederholen darf. In diesem Fall (da es keine Wiederholung gibt) können wir nicht sagen, wie wahrscheinlich es im Plus funktioniert hat, und nehmen es als Axiomwahrscheinlichkeit von 1, anstatt es auf 0,5 zu setzen, weil es im Wesentlichen unbekannt ist.

respektvoll.
R=1 bedeutet, dass sich jeder Baum die gesamte Trainingsmenge an Mustern merken kann, und 0,66 bedeutet nur 66%, und jeder Baum wählt Muster mit Wiederkehr, d.h. die gleichen Muster können von vielen Bäumen im Wald wiederholt werden.
 
Andrey Kisselyov:
Als ich den Schwellenwert für das Signal erhöhte, kompensierte NS dies durch eine Erhöhung der Anzahl der erforderlichen Eingaben, was zur Folge hatte, dass der Fehler abnahm, aber es gab auch weniger Eingabemöglichkeiten.




Mit freundlichen Grüßen.

Nun, es ist eine Frage der richtigen Chips und des richtigen Ziels, obwohl es scheint, dass es einfacher sein könnte als eine Multiplikationstabelle, aber auch da gibt es keine kleinen Fehler