Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2406
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Referenz für Metriken, ich selbst kenne einigehttps://russianblogs.com/article/7586220986/ nicht
Wenn die Vorzeichen gleichmäßig in einem Einheitswürfel verteilt sind, scheint die Tschebyscheff-Metrik intuitiv die korrekteste zu sein. Außerdem ist es unwahrscheinlich, dass beliebige Merkmale so gut normalisiert werden können.
Wenn die Merkmale gleichmäßig in einem Einheitswürfel verteilt sind, scheint die Tschebyscheff-Metrik intuitiv am besten geeignet zu sein. Außerdem ist es unwahrscheinlich, dass sich beliebige Attribute so gut normalisieren lassen.
Ich habe mit der Normalisierung experimentiert und dabei anständige Verluste in den Modellen erhalten, die ohne sie besser sind. Also Wälder aus Bäumen, keine neuronalen Netze.
Ich habe mit der Normalisierung experimentiert und dabei anständige Verluste in den Modellen erhalten, die ohne sie besser sind. Deshalb gibt es Wälder aus Bäumen und keine neuronalen Netze.
Ich neige auch(auch dank Ihrer Bemühungen) zu etwas wie xgboost. Aber eine Normalisierung sowie eine allgemeine vorbereitende Recherche mit Merkmalen kann nie schaden. Außerdem benötige ich einen flexiblen Ansatz zur Erstellung einer benutzerdefinierten Zielfunktion.
Daher Wälder von Bäumen, nicht neuronale Netze.
Ja, vor ein paar Jahren schrieb jemand in diesem Thread eine solche Idee - schlug Wälder vor und verglich neuronale Netze mit Atomwaffen. Er sagte, dass sie nur dann eingesetzt werden sollten, wenn andere Methoden nicht helfen. Aber ein gewisser Maxim hat ihn in die Pfanne gehauen.
Ich frage mich... Hatte er Recht?
Ich neige auch(auch dank Ihrer Arbeit) zu etwas wie xgboost. Aber Normalisierung sowie allgemeine vorbereitende Forschungsarbeit mit Merkmalen kann nie schaden. Außerdem benötigen wir einen flexiblen Ansatz für die Erstellung benutzerdefinierter Zielfunktionen.
LightGBM oder CatBoost empfehlen, XGBoost hinkt hinterher
Es hat sich herausgestellt, dass jede Vorverarbeitung Alpha tötet. Dies ist der Fall, wenn Sie die Inkremente nehmen und beginnen, sie zu trocknen. Ideal wäre es, die ursprüngliche Reihe (Anführungszeichen) zu nehmen, aber man kann sie aufgrund ihrer Nicht-Stationarität nicht trainieren. Dies wird in dem Artikel über die fraktionale Differenzierung deutlich (wir werden die Erinnerung an den Markt begraben). Je mehr Transformationen vorgenommen werden, desto weniger bleibt übrig.
Ja, vor ein paar Jahren schrieb jemand in diesem Thread einen solchen Gedanken - er schlug ein Gerüst vor und verglich neuronale Netze mit Atomwaffen. Er sagte, dass sie nur dann eingesetzt werden sollten, wenn mit anderen Methoden überhaupt nichts erreicht werden kann. Aber ein gewisser Maxim hat ihn in die Pfanne gehauen.
Ich frage mich... Hatte er Recht?
Ich weiß nicht, wovon er gesprochen hat.
Ähnliche Schlussfolgerungen - nur Bäume. Besonders viel Spaß macht es, wenn Maxima aktualisiert werden und sich alles verschiebt. Sie können natürlich manuell oder automatisch (für jedes Merkmal) Höchstwerte festlegen, aber das ist eine Krücke.
Ja, egal wie unsinnig es ist.