Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3360
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich mache überhaupt keinen Wahlkampf. Es gibt eine Vielzahl von Ansätzen, die Frage bezog sich auf das Wissen von MO
Nun, ich persönlich verbinde die Antwort des Modells nicht mit der Wahrscheinlichkeit, dass eine Klasse ausscheidet, sondern mit dem Vertrauen des Modells in die Klassendefinition. Das Vertrauen wird durch Blätter gezählt, und die Blätter werden durch die Trainingsstichprobe gezählt. Hier zeigt ein einzelnes Blatt die Wahrscheinlichkeit des Ausscheidens aus einer Klasse an. Da jedes Blatt nicht an allen Punkten der Stichprobe Antworten hat, stellt sich heraus, dass die Summierung der Wahrscheinlichkeiten in der endgültigen Antwort des Modells verzerrt ist. Vielleicht gibt es eine Möglichkeit zur Korrektur auf dieser Ebene - und ich bin daran interessiert - ich habe versucht, die Diskussion in diese Richtung zu lenken.
Meiner Meinung nach besteht die Lösung darin, die Blätter nach ähnlichen Antwortpunkten zu gruppieren und die durchschnittliche Zusammenfassung der Ergebnisse der Gruppen weiter zu transformieren....
Nun, ich persönlich habe die Antwort des Modells nicht mit der Wahrscheinlichkeit eines Klassenausfalls in Verbindung gebracht, sondern sie als das Vertrauen des Modells in die Klassenerkennung betrachtet. Das Vertrauen basiert auf den Blättern, und die Blätter basieren auf der Trainingsstichprobe. Hier zeigt ein einzelnes Blatt die Wahrscheinlichkeit eines Klassenausfalls an. Da jedes Blatt nicht an allen Punkten der Stichprobe Antworten enthält, zeigt sich, dass die Summierung der Wahrscheinlichkeiten in der endgültigen Antwort des Modells verzerrt ist. Vielleicht gibt es eine Möglichkeit, dies auf dieser Ebene zu korrigieren - und ich bin daran interessiert - das ist die Richtung, in die ich versucht habe, die Diskussion zu lenken.
Meiner Meinung nach besteht die Lösung darin, die Blätter nach ähnlichen Antwortpunkten zu gruppieren und die durchschnittlichen zusammengefassten Ergebnisse der Gruppen weiter zu transformieren....
Tut mir leid, aber ohne Verweise auf Bibliotheken, Hefte oder Artikel verstehe ich es immer noch ungefähr so
Tut mir leid, aber ohne Links zu Bibliotheken, Notizbüchern oder Artikeln sehe ich das immer noch ungefähr so
Eh, alles was man braucht sind Pakete...
Oh, ich wünschte, ihr hättet Taschen.
Nach der Kalibrierung eines beliebigen Klassifikators mit der CV-Methode können Sie sofort das Potenzial dieses Modells erkennen. Wenn es zu nichts fähig ist, häufen sich die Wahrscheinlichkeiten nach diesem Verfahren um 0,5. Zuvor war es allerdings übermäßig selbstbewusst. Es ist völlig uninteressant, an einem solchen Modell weiter herumzupfuschen. Es kann nicht verbessert werden. Das heißt, es kann nicht einmal normal kalibriert werden, es gibt keine Fische. Es ist ziemlich bequem.
Es gibt keinen "Quantenschnitt", in Ihren Worten, keinen Bereich oder keine Spanne, in der es einen wahrscheinlichen Gewinn bringen würde.
Ok, um das Thema abzuschließen. Es ist mir gelungen, die Sigmoid-Kalibrierung nach metac zu exportieren.
Gegeben: retrained gradient bousting, dann auf diesen Zustand kalibriert:
Bei Schwellenwert 0,5 ist alles klar, man kann sehen, wo das OOS ist:
Ich lasse den Schwellenwert laufen und beende die Optimierung:
Ich erhalte alle möglichen Variationen, die besten bei Schwellenwerten 0,75-0,85. Sogar ein wenig bei neuen Daten ist ein bisschen daneben, obwohl es bei einem Schwellenwert von 0,5 keine normalen Varianten gibt.
Ein ziemlich lustiges Spielzeug.
Nach der Kalibrierung eines beliebigen Klassifikators mit der CV-Methode kann man das Potenzial dieses Modells sofort erkennen. Wenn es zu nichts fähig ist, klumpen die Wahrscheinlichkeiten nach diesem Verfahren um 0,5. Auch wenn es vorher zu selbstsicher war. Es ist völlig uninteressant, an einem solchen Modell weiter herumzupfuschen. Es kann nicht verbessert werden. Das heißt, es kann nicht einmal normal kalibriert werden, es gibt keine Fische. Es ist sehr bequem.
Es gibt keinen einzigen "Quantenschnitt", in Ihren Worten, keinen einzigen Bereich, in dem es einen wahrscheinlichen Gewinn bringen würde.
Wenn Sie damit das Modell-Screening automatisieren können, ist das schon eine gute Sache.
Ich habe eine Visualisierung des Modells nach seinem Wahrscheinlichkeitskonfidenzindex mit einer Schrittweite von 0,05, und da kann ich alles auf einmal sehen. Die Hauptsache ist die Transformation des Ergebnisses auf die Trainingsstichprobe und andere - da schleichen sich die Wahrscheinlichkeiten ein, deshalb spreche ich von Nicht-Repräsentativität. Deshalb halte ich die Kalibrierung in unserem Fall für eine unwirksame Maßnahme. Wenn es in Ihren Modellen keine starke Verzerrung von Stichprobe zu Stichprobe gibt, ist das ziemlich überraschend.
Und ich möchte anmerken, dass gerade ein untertrainiertes Modell Wahrscheinlichkeiten in einem engen Bereich erzeugt.
Ein normal trainiertes Modell wird oft genau in den Bereichen liegen, in denen das Vertrauen groß ist - deshalb ist es sinnvoll, keinen Klassifizierungsschwellenwert, sondern ein Fenster festzulegen - z. B. von 0,55 bis 0,65 die zurückgegebene Klasse als eine Einheit betrachten und den Rest ignorieren. An den Enden ist das Modell zuverlässig, aber oft gibt es nur sehr wenige Beobachtungen, so dass die statistische Signifikanz gering ist.
Meine Herren vom Verteidigungsministerium!
Ist es das wert?
Meinen Algorithmus aufgreifen - Allgemeine Diskussion - MQL5
Solange es noch in tadellosem Zustand ist, sollten Sie das Beste daraus machen. Keiner versteht, was du sagst.
Komm schon)))))) Frohes neues Jahr))))
Die Wahrheit ist unverändert))))
Ja gut)))))) Frohes neues Jahr))))
Die Wahrheit ist unverändert)))))