Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 487
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Zufallswälder sollen geringe Fehler aufweisen, da alle Variablen in Entscheidungsbäumen verwendet werden und es keine Beschränkung der Speichernutzung wie bei neuronalen Netzen gibt - die Anzahl der Neuronen. Dort können Sie nur einzelne Operationen verwenden, um das Ergebnis zu "verwischen", wie z. B. Ebenenbeschränkung, Baumbeschneidung oder Backgammon. Ich weiß nicht, ob die MQ-Implementierung von alglib über Pruning verfügt, Bagging schon
Wenn diese Variable kleiner als 1 ist, sollte der Fehler ansteigen.
ist es, aber der Fehler wurde immer noch durchschnittlich angezeigt, wie oben beschrieben... jetzt ist es normal
Übrigens steigt der Fehler auch bei einer Verringerung von r um o,1 sehr stark an. Über r 0,9 unter 0,8
Bei r = 0,66 (wie in der klassischen RF-Version)
Und die Ergebnisse zeigen, dass die Multiplikationstabelle bereits schlecht löst
Zufallswälder sollen geringe Fehler aufweisen, weil alle Variablen in Entscheidungsbäumen verwendet werden und es keine Beschränkung der Speichernutzung wie bei neuronalen Netzen gibt - die Anzahl der Neuronen. Dort können Sie nur einzelne Operationen verwenden, um das Ergebnis zu "verwischen", wie z. B. Ebenenbeschränkung, Baumbeschneidung oder Backgammon. Ich weiß nicht, ob es in der MQ-Implementierung von alglib ein Pruning gibt, aber es gibt ein Tagging
Wenn diese Variable kleiner als 1 gesetzt wird, sollte der Fehler steigen.
Sie müssen 1 falsches Geschäft pro 50000000000000000000000 machen. Das ist bei keinem Instrument möglich.
meinen Respekt.
damit der Fehler so klein ist wie der von @Maxim Dmitrievsky
ich brauche 1 falsches Geschäft pro 50000000000000000000000 . es ist unmöglich, es auf jedem Instrument zu machen.
Mit freundlichen Grüßen.
Ich sage Ihnen, dass sich jeder Entscheidungsbaum praktisch alle Muster merkt und dass es in einer Trainingsmenge mit 100% Sampling, d.h. R=1, überhaupt keinen Fehler geben kann.
Ja, es ist eine Überanpassung, aber so funktioniert der Algorithmus, und deshalb werden in Random Forests alle möglichen Tricks verwendet.
Was die Angebote betrifft, so sage ich Ihnen, dass sich jeder Entscheidungsbaum praktisch alle Muster merkt und dass es bei einer 100%igen Stichprobe, d.h. R=1, überhaupt keinen Fehler geben kann.
dafür muss man aus der Tasche schauen, um das Modell zu schätzen, aber dann sollte man r=0,66 maximal einstellen.
Was die Angebote betrifft, so sage ich Ihnen, dass sich jeder Entscheidungsbaum praktisch alle Muster merkt und dass es bei einer 100%igen Stichprobe, d.h. R=1, überhaupt keinen Fehler geben kann.
mit Respekt.
dafür müssen Sie aus der Tasche schauen, um das Modell zu bewerten, aber dann r=0,66 max setzen ja
Wahrscheinlich müssen wir noch zulegen, aber Tagging allein ist IMHO keine sehr starke Technologie für Vorhersagen.
Nun, das war's erst einmal... :) wenn ich dann eine anständige Lib mit Diplinking auftreibe, werde ich es mir ansehen
aber die Geschwindigkeit!
ist es, aber der Fehler wurde immer noch durchschnittlich angezeigt, wie oben beschrieben... jetzt ist es normal
Übrigens, auch wenn r um o,1 verringert wird, steigt der Fehler stark an. Über r 0,9 unter 0,8
Bei r = 0,66 (wie in der klassischen RF-Version)
Und ich sehe an den Ergebnissen, dass die Multiplikationstabelle schon sehr schlecht gelöst ist.
Mit freundlichen Grüßen.
Ich bin nicht auf die Funktionsweise des Waldes eingegangen, aber aus Ihren Worten entnehme ich, dass sich jeder Baum ein Muster merkt, das sich in der Folge nicht wiederholen darf. In diesem Fall (da es keine Wiederholung gibt) können wir nicht sagen, wie wahrscheinlich es im Plus funktioniert hat, und nehmen es als Axiomwahrscheinlichkeit von 1, anstatt es auf 0,5 zu setzen, weil es im Wesentlichen unbekannt ist.
respektvoll.
Als ich den Schwellenwert für das Signal erhöhte, kompensierte NS dies durch eine Erhöhung der Anzahl der erforderlichen Eingaben, was zur Folge hatte, dass der Fehler abnahm, aber es gab auch weniger Eingabemöglichkeiten.
Mit freundlichen Grüßen.
Nun, es ist eine Frage der richtigen Chips und des richtigen Ziels, obwohl es scheint, dass es einfacher sein könnte als eine Multiplikationstabelle, aber auch da gibt es keine kleinen Fehler