Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2584
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich denke, die Anpassung der Verlustfunktion an die Bedürfnisse unserer Händler sollte weiter untersucht werden.
Als Beispiel sei hierein Artikel zu diesem Thema genannt.
Für eine breitere Perspektive?
Begründen Sie zunächst die Bedeutung aus praktischer Sicht: Wenn Sie zum Beispiel dies tun, werden Sie dies bekommen, es wird zu diesem führen... usw ..
Hier können Sie ein beliebiges Wort zum Thema in Google eingeben und die Branche wird in Windeseile mit Links bis zum Unmöglichen überflutet.
Ich denke, die Anpassung der Verlustfunktion an die Bedürfnisse unserer Händler sollte weiter untersucht werden.
Als Beispiel sei hierein Artikel zu diesem Thema genannt.
Einverstanden.
Standardklassifizierung und -regression sind für BP nicht sehr geeignet.
Einverstanden.
Standardklassifizierung und -regression sind für BP nicht sehr geeignet.
Ich möchte zunächst lernen, wie man beliebige und korrekte Verlustfunktionen aufbaut - so dass sie z. B. der Gewinnmaximierung ähnlicher sind und die Lernalgorithmen mit diesen Funktionen richtig funktionieren. Offensichtlich müssen wir selbst bei der einfachsten linearen Regression auf die Grundlagen eingehen.
Ich möchte zunächst lernen, wie man beliebige und korrekte Verlustfunktionen aufbaut - damit sie zum Beispiel der Gewinnmaximierung ähnlicher werden und die Lernalgorithmen mit diesen Funktionen gut funktionieren.
Was ist an der Maximierung selbst falsch?
Ein Problem könnte die schlechte Konditionalität sein, die von den verwendeten Messgrößen abhängt. Möglicherweise gibt es ein Problem mit der Berechnung von Gradient und Hessian für das Boosten.
Es kann Probleme mit einer schlechten Konditionalität geben, was von den verwendeten Messgrößen abhängt. Möglicherweise gibt es ein Problem mit der Berechnung von Gradient und Hessian für das Boosten.
Zur Auswahl der Modelle werden benutzerdefinierte Metriken verwendet, aber das Lernen erfolgt immer noch anhand von Standardmetriken (z. B. logloss für die Klassifizierung). Denn Ihre Metriken beziehen sich nicht auf die Beziehung zwischen Merkmal und Ziel, während die Standardmetriken dies tun. Und hier ist es irgendwie unklar, ob man dann Modelle nach Sharpe Ratio oder R2 auswählen soll, oder ob man sofort aufhören soll zu lernen, wenn man sie maximiert. Es könnte wahrscheinlich in beide Richtungen gehen.
Es wäre jedoch interessant, mit dem Verzicht auf die Standardmetriken zu experimentieren und sie durch solche zu ersetzen, die denen ähneln, die in der Metatrader-Optimierung verwendet werden.
Ich bin nicht bereit zu behaupten, dass der Gral bereitgestellt wird), aber ich denke, ich werde versuchen, es irgendwann herauszufinden.
Dennoch wäre es interessant, mit dem völligen Verzicht auf Standardmetriken zu experimentieren und sie durch solche zu ersetzen, die denen der Metatrader-Optimierung ähneln.
Ich bin nicht bereit zu versprechen, dass es ein Gral ist), aber ich denke, ich werde versuchen, es irgendwann in Angriff zu nehmen.
Wie kann man bei einem großen Merkmalsraum (Dutzende von Merkmalen) im Voraus bestimmen, welche Konditionalität besser ist?
Sicherlich ist die Konditionalität bei Standardmetriken immer besser - sonst wären sie ja keine Norm. Aber kann sie einen davon abhalten, sein eigenes Fahrrad zu erfinden?)