Bayes'sche Regression - Hat jemand einen EA mit diesem Algorithmus erstellt? - Seite 38
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich unterschreibe jedes Wort. Welchen Sinn hat es, eine Regression zu erstellen, wenn im nächsten Abschnitt die Merkmale dieser Regression völlig anders sein werden. Man kann das Modell nach Belieben an die Daten anpassen, aber es ist einfacher zuzugeben, dass Y (Preis) nicht von X (Zeit) abhängt, zumindest was die lineare Regression angeht.
Dies ist ein weiteres Beispiel für gesunden Menschenverstand.
Ein Kollege von mir studierte Data Science in Coursera und führte ein Abschlussprojekt durch, in dem er eine lineare Regressionsannäherung auf einer zufällig generierten Reihe (ein Martingal, oder man könnte sagen, ein Wiener Prozess mit normalverteilten Inkrementen) aufbaute und demonstrierte, wie im nächsten Segment der Reihe alle Regressionsparameter völlig unvorhersehbar drifteten. Spielzeugproblem.
Wenn ich eine Regression anwenden würde (ich würde zu einer Kammregression tendieren, obwohl ich das Prinzip nicht sehr gut kenne), würde ich sie auf Preisinkremente oder Preisderivate anwenden. Und dann gibt es die Möglichkeit, robuste Metriken zu erhalten. Aber selbst in diesem Fall ist es unrealistisch, normalverteilte Residuen zu erhalten.
Dies ist ein weiteres Beispiel für gesunden Menschenverstand.
Ein Kollege von mir studierte Data Science in Coursera und führte ein Abschlussprojekt durch, in dem er eine lineare Regressionsapproximation auf einer zufällig generierten Reihe (ein Martingal, oder man könnte sagen, ein Wiener Prozess mit normalverteilten Inkrementen) aufbaute und demonstrierte, wie im nächsten Segment der Reihe alle Regressionsparameter völlig unvorhersehbar drifteten. Spielzeugproblem.
Wenn ich eine Regression anwenden würde (ich würde zu einer Kammregression tendieren, obwohl ich das Prinzip nicht sehr gut kenne), würde ich sie auf Preisinkremente oder Preisderivate anwenden. Und dann gibt es die Möglichkeit, robuste Metriken zu erhalten. Aber selbst in diesem Fall ist es unrealistisch, normalverteilte Residuen zu erhalten.
;)
Für die Ridge-Regression ist die Normalität der Residuenverteilung nicht erforderlich.
DieBayes'sche Regression ähnelt der Kammregression, basiert aber auf der Annahme, dass das Rauschen in den Daten normalverteilt ist - es wird also davon ausgegangen, dass bereits ein allgemeines Verständnis der Datenstruktur vorhanden ist, was im Vergleich zur linearen Regression ein genaueres Modell ermöglicht.
;)
Bei der Ridge-Regression ist die Normalität der Verteilung der Residuen nicht erforderlich.
Nun, ich gebe zu, dass ich mich mit der Unterart Regression nicht besonders gut auskenne. Aber die Tatsache, dass die Normalität der Residuen nicht erforderlich ist, ist sehr gut. Und die Ridge-Regression ist möglicherweise besser auf Märkte anwendbar. Dort werden die Werte der Koeffizienten eingeschränkt. Mir sind Beispiele bekannt, bei denen diese Art der Regression von Kursen zuverlässige Ergebnisse lieferte.
Es gibt auch eine Regression mit L2-Regulierung, wenn es möglich ist, die Koeffizienten einiger Regressoren auf Null zu degenerieren. Sie ist nützlich, wenn es viele Regressoren gibt und wir die Dimensionalität des Eingangsvektors verringern müssen.
Aber ohne die Details zu kennen, kann es gefährlich sein, sich in das Labyrinth der Regressionsmatrix zu begeben.
Die Ridge-Regression löst das Problem der Multikollinearität - wenn es so viele unabhängige Variablen gibt, die miteinander korrelieren
Auch dies ist ein äußerst nützlicher Aspekt der Ridge-Regression.
In der Praxis ist es fast unrealistisch schwierig, die Unabhängigkeit der Regressoren zu erreichen, und das Vorhandensein von Kollinearität verfälscht alle Statistiken in einer ordinalen linearen Regression. Daher steht, wie SanSanych zu Recht feststellt, die Anwendbarkeit der Methode an erster Stelle.
Es gibt auch eine Regression mit L2-Regulierung, bei der es möglich ist, die Koeffizienten der einzelnen Regressoren auf Null zu degenerieren. Dies ist nützlich, wenn es viele Regressoren gibt und wir die Dimensionalität des Eingangsvektors reduzieren müssen.
Lasso-Regression? Ja, so etwas gibt es.
In der Praxis ist es bequemer, die Ridge-Regression zu verwenden, die als Regression mit Einschluss oder Ausschluss von Faktoren durchgeführt wird.
Lasso-Regression? Ja, so etwas gibt es.
In der Praxis ist die Ridge-Regression praktischer - sie wird als Regression mit Einschluss oder Ausschluss von Faktoren durchgeführt
Ja, das ist es.
Hier ist ein Beispiel für die Verwendung robuster Regressionen zur Vorhersage von Zitaten, 3. Platz im Wettbewerb, aber ohne Details:http://blog.kaggle.com/2016/02/12/winton-stock-market-challenge-winners-interview-3rd-place-mendrika-ramarlina/
Und ein weiteres, meiner Meinung nach großartiges Beispiel:https://www.kaggle.com/c/battlefin-s-big-data-combine-forecasting-challenge/forums/t/5966/share-your-approach
Lesen Sie Sergey Yurgenson und sehen Sie sich seinen Code an (2. Platz in einem anderen Wettbewerb):
Mein Algorithmus wurde in Matlab geschrieben und der Code wird weiter unten bereitgestellt. Die Hauptidee des Algorithmus ist die Verwendung eines linearen Regressionsmodells (robuste Regression) unter Verwendung einer kleinen Anzahl von Prädiktoren, die auf der Grundlage des p-Wertes der Slops jedes potenziellen Prädiktors ausgewählt werden.
Und zum Thema L1/L2-Regulierung:https://msdn.microsoft.com/ru-ru/magazine/dn904675.aspx
In jedem Fall ist es sinnvoll, sich gegenseitig kennen zu lernen.
Auch dies ist ein äußerst nützlicher Aspekt der Ridge-Regression.
In der Praxis ist es fast unrealistisch schwierig, die Unabhängigkeit der Regressoren zu erreichen, und das Vorhandensein von Kollinearität verfälscht alle Statistiken in einer ordinalen linearen Regression. Daher steht, wie SanSanych zu Recht feststellt, die Anwendbarkeit der Methode an erster Stelle.
Ich habe die Hauptkomponentenmethode ausprobiert. Das scheint ideal zu sein. Die Transformation führt zu einer Reihe von Regressoren mit Nullkorrelation zueinander. Es ist immer noch möglich, die "wichtigsten" auszuwählen, die die größte Vielfalt erklären.
Das hat viel Zeit für Klassifizierungsaufgaben gekostet. Zumindest um den Fehler um % zu reduzieren.
Ich habe die Hauptkomponentenmethode ausprobiert. Das scheint ideal zu sein. Die Transformation führt zu einer Reihe von Regressoren mit Nullkorrelation zueinander. Es ist auch möglich, die "wichtigsten" auszuwählen, die die größte Vielfalt erklären.
Das hat viel Zeit für Klassifizierungsaufgaben gekostet. Zumindest um den Fehler um % zu reduzieren.