Bayes'sche Regression - Hat jemand einen EA mit diesem Algorithmus erstellt? - Seite 38

 
Vasiliy Sokolov:
Ich unterschreibe jedes Wort. Welchen Sinn hat es, eine Regression zu erstellen, wenn im nächsten Abschnitt die Merkmale dieser Regression völlig anders sein werden. Man kann das Modell nach Belieben an die Daten anpassen, aber es ist einfacher zuzugeben, dass Y (Preis) nicht von X (Zeit) abhängt, zumindest was die lineare Regression angeht.

Dies ist ein weiteres Beispiel für gesunden Menschenverstand.

Ein Kollege von mir studierte Data Science in Coursera und führte ein Abschlussprojekt durch, in dem er eine lineare Regressionsannäherung auf einer zufällig generierten Reihe (ein Martingal, oder man könnte sagen, ein Wiener Prozess mit normalverteilten Inkrementen) aufbaute und demonstrierte, wie im nächsten Segment der Reihe alle Regressionsparameter völlig unvorhersehbar drifteten. Spielzeugproblem.

Wenn ich eine Regression anwenden würde (ich würde zu einer Kammregression tendieren, obwohl ich das Prinzip nicht sehr gut kenne), würde ich sie auf Preisinkremente oder Preisderivate anwenden. Und dann gibt es die Möglichkeit, robuste Metriken zu erhalten. Aber selbst in diesem Fall ist es unrealistisch, normalverteilte Residuen zu erhalten.

 
Alexey Burnakov:

Dies ist ein weiteres Beispiel für gesunden Menschenverstand.

Ein Kollege von mir studierte Data Science in Coursera und führte ein Abschlussprojekt durch, in dem er eine lineare Regressionsapproximation auf einer zufällig generierten Reihe (ein Martingal, oder man könnte sagen, ein Wiener Prozess mit normalverteilten Inkrementen) aufbaute und demonstrierte, wie im nächsten Segment der Reihe alle Regressionsparameter völlig unvorhersehbar drifteten. Spielzeugproblem.

Wenn ich eine Regression anwenden würde (ich würde zu einer Kammregression tendieren, obwohl ich das Prinzip nicht sehr gut kenne), würde ich sie auf Preisinkremente oder Preisderivate anwenden. Und dann gibt es die Möglichkeit, robuste Metriken zu erhalten. Aber selbst in diesem Fall ist es unrealistisch, normalverteilte Residuen zu erhalten.

;)

Für die Ridge-Regression ist die Normalität der Residuenverteilung nicht erforderlich.

DieBayes'sche Regression ähnelt der Kammregression, basiert aber auf der Annahme, dass das Rauschen in den Daten normalverteilt ist - es wird also davon ausgegangen, dass bereits ein allgemeines Verständnis der Datenstruktur vorhanden ist, was im Vergleich zur linearen Regression ein genaueres Modell ermöglicht.

 
Die Ridge-Regression löst das Problem der Multikollinearität - wenn es so viele unabhängige Variablen gibt, die miteinander korrelieren
 
Дмитрий:

;)

Bei der Ridge-Regression ist die Normalität der Verteilung der Residuen nicht erforderlich.


Nun, ich gebe zu, dass ich mich mit der Unterart Regression nicht besonders gut auskenne. Aber die Tatsache, dass die Normalität der Residuen nicht erforderlich ist, ist sehr gut. Und die Ridge-Regression ist möglicherweise besser auf Märkte anwendbar. Dort werden die Werte der Koeffizienten eingeschränkt. Mir sind Beispiele bekannt, bei denen diese Art der Regression von Kursen zuverlässige Ergebnisse lieferte.

Es gibt auch eine Regression mit L2-Regulierung, wenn es möglich ist, die Koeffizienten einiger Regressoren auf Null zu degenerieren. Sie ist nützlich, wenn es viele Regressoren gibt und wir die Dimensionalität des Eingangsvektors verringern müssen.

Aber ohne die Details zu kennen, kann es gefährlich sein, sich in das Labyrinth der Regressionsmatrix zu begeben.

 
Дмитрий:
Die Ridge-Regression löst das Problem der Multikollinearität - wenn es so viele unabhängige Variablen gibt, die miteinander korrelieren

Auch dies ist ein äußerst nützlicher Aspekt der Ridge-Regression.

In der Praxis ist es fast unrealistisch schwierig, die Unabhängigkeit der Regressoren zu erreichen, und das Vorhandensein von Kollinearität verfälscht alle Statistiken in einer ordinalen linearen Regression. Daher steht, wie SanSanych zu Recht feststellt, die Anwendbarkeit der Methode an erster Stelle.

 
Alexey Burnakov:


Es gibt auch eine Regression mit L2-Regulierung, bei der es möglich ist, die Koeffizienten der einzelnen Regressoren auf Null zu degenerieren. Dies ist nützlich, wenn es viele Regressoren gibt und wir die Dimensionalität des Eingangsvektors reduzieren müssen.


Lasso-Regression? Ja, so etwas gibt es.

In der Praxis ist es bequemer, die Ridge-Regression zu verwenden, die als Regression mit Einschluss oder Ausschluss von Faktoren durchgeführt wird.

 
Дмитрий:

Lasso-Regression? Ja, so etwas gibt es.

In der Praxis ist die Ridge-Regression praktischer - sie wird als Regression mit Einschluss oder Ausschluss von Faktoren durchgeführt

Ja, das ist es.

Hier ist ein Beispiel für die Verwendung robuster Regressionen zur Vorhersage von Zitaten, 3. Platz im Wettbewerb, aber ohne Details:http://blog.kaggle.com/2016/02/12/winton-stock-market-challenge-winners-interview-3rd-place-mendrika-ramarlina/

Und ein weiteres, meiner Meinung nach großartiges Beispiel:https://www.kaggle.com/c/battlefin-s-big-data-combine-forecasting-challenge/forums/t/5966/share-your-approach

Lesen Sie Sergey Yurgenson und sehen Sie sich seinen Code an (2. Platz in einem anderen Wettbewerb):

Mein Algorithmus wurde in Matlab geschrieben und der Code wird weiter unten bereitgestellt. Die Hauptidee des Algorithmus ist die Verwendung eines linearen Regressionsmodells (robuste Regression) unter Verwendung einer kleinen Anzahl von Prädiktoren, die auf der Grundlage des p-Wertes der Slops jedes potenziellen Prädiktors ausgewählt werden.

Winton Stock Market Challenge, Winner's Interview: 3rd place, Mendrika Ramarlina
Winton Stock Market Challenge, Winner's Interview: 3rd place, Mendrika Ramarlina
  • 2016.12.02
  • blog.kaggle.com
The Stock Market Challenge, Winton's second recruiting competition on Kaggle, asked participants to predict intra and end of day stock returns. The competition was crafted by research scientist at Winton to mimic the type of problem that they work on everyday. Mendrika Ramarlina finished third in the competition with a combination of simple...
 

Und zum Thema L1/L2-Regulierung:https://msdn.microsoft.com/ru-ru/magazine/dn904675.aspx

In jedem Fall ist es sinnvoll, sich gegenseitig kennen zu lernen.

 
Alexey Burnakov:

Auch dies ist ein äußerst nützlicher Aspekt der Ridge-Regression.

In der Praxis ist es fast unrealistisch schwierig, die Unabhängigkeit der Regressoren zu erreichen, und das Vorhandensein von Kollinearität verfälscht alle Statistiken in einer ordinalen linearen Regression. Daher steht, wie SanSanych zu Recht feststellt, die Anwendbarkeit der Methode an erster Stelle.

Ich habe die Hauptkomponentenmethode ausprobiert. Das scheint ideal zu sein. Die Transformation führt zu einer Reihe von Regressoren mit Nullkorrelation zueinander. Es ist immer noch möglich, die "wichtigsten" auszuwählen, die die größte Vielfalt erklären.

Das hat viel Zeit für Klassifizierungsaufgaben gekostet. Zumindest um den Fehler um % zu reduzieren.

 
СанСаныч Фоменко:

Ich habe die Hauptkomponentenmethode ausprobiert. Das scheint ideal zu sein. Die Transformation führt zu einer Reihe von Regressoren mit Nullkorrelation zueinander. Es ist auch möglich, die "wichtigsten" auszuwählen, die die größte Vielfalt erklären.

Das hat viel Zeit für Klassifizierungsaufgaben gekostet. Zumindest um den Fehler um % zu reduzieren.

Vor kurzem diskutierte ich mit Kollegen über die Geschichte und Entwicklung der linearen Regression. Um es kurz zu machen: Ursprünglich gab es nur wenige Daten und wenige Prädiktoren. Gewöhnliche lineare Regression wird mit einigen Annahmen verwaltet. Mit der Entwicklung der Informationstechnologie wuchs dann die Datenmenge, und die Zahl der Prädiktoren konnte leicht Zehntausende übersteigen. Unter diesen Bedingungen hilft die gewöhnliche lineare Regression nicht weiter - man lernt zu viel. So entstanden regulierte Versionen, Versionen, die den Anforderungen der Distributionen gerecht werden, usw.