Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3341

 
Maxim Dmitrievsky #:

Verursacht AB tatsächlich das Erscheinen von C oder einer Reihe anderer Buchstaben?

Nun, das ist die Frage, auf den ersten Blick gibt es eine Assoziation...
Wie kann man verstehen, ob es nur eine Assoziation ist oder ob AB tatsächlich C verursacht?

 
Maxim Dmitrievsky #:

Immerhin wurden Sie nicht von Google verbannt, oder? Sie können nachlesen, wie sich statistische Schlussfolgerungen von kausalen Schlussfolgerungen unterscheiden, oder?

Maxim Dmitrievsky #:
Kommen wir zur Sache: Was ist der Unterschied zwischen assoziativer und kausaler Inferenz?

Der Autor hat sich die Mühe gemacht, die Grenzen der Anwendbarkeit der linearen Regression aufzuzeigen. Minuspunkt.

Metastudenten sind nicht ein Ensemble von Modellen, minus ein Punkt.

Mit welchem anderen Abschnitt des Buches sind Sie nicht einverstanden, oder besser gesagt, was haben Sie aus dem Buch sonst noch nicht verstanden?

Sie sind natürlich der größte Guru und können es sich leisten, den Leuten Punkte zu geben, aber ich kann das nicht, und ich schreibe noch einmal speziell in der Erwartung, dass Sie auch speziell antworten.


Mit welchem anderen Teil des Buches sind Sie nicht einverstanden, oder besser gesagt, was haben Sie an dem Buch nicht verstanden?

Ich habe nirgendwo geschrieben, dass ich nicht einverstanden bin.

Ich bin gegen neue Bezeichnungen für altbekannte Konzepte.

Es ist alles da, und es ist wenig hilfreich, bekannte Dinge mitNebeln zu versehen.

Der Autor hat sich die Mühe gemacht, die Grenzen der Anwendbarkeit der linearen Regression aufzuzeigen. Minus ein Punkt.

Habe ich im Text nicht gesehen:

1. die lineare Regression ist auf stationäre Zufallsprozesse anwendbar

2. die Residuen der linearen Regression müssen normalverteilt sein.

Wenn dies in seinen Beispielen nicht der Fall ist und der Umkehrschluss nicht angegeben wird, dann ist seine gesamte Argumentation ein Armutszeugnis.

Die gesamte Argumentation im Buch über Ursache und Wirkung ist die übliche "falsche Korrelation"-Argumentation


Meta Learnersist kein Ensemble von Modellen, abzüglich der Punktzahl.

Dem Text des Buches zufolgesind "Meta-Lerner" das Ergebnis der Anpassung/Vorhersage konventioneller Modelle. Hätte der Autor nicht wieder einmal die gewöhnlichsten Begriffe mit neuen Etiketten versehen, hätte ich die Möglichkeit gehabt, meine Gedanken genauer auszudrücken.

Ich möchte also klarstellen.

Das Ensemble von Modellen ist eine alte und gut etablierte Idee. Der Input ist der Output von Modellen auf niedrigerer Ebene, der Output ist ein Signal. Es gibt viele Methoden, um die Ergebnisse von Modellen auf niedrigerer Ebene zu kombinieren - die Kombination von "Meta-Lernern". Der Autor betrachtet drei Varianten der Kombination von Anpassungsergebnissen, wobei die zweite und dritte Variante die Ergebnisse des Gradient-Busting-Modells kombinieren. In der dritten Variante werden die Ergebnisse der ersten Ebene nach dem

Hier ist dieser unverständliche Text die Bedeutung, die Neuheit in all dem:

def ps_predict(df, t): 
    return g.predict_proba(df[X])[:, t]
    
    
x_cate_train = (ps_predict(train,1)*mx0.predict(train[X]) +
                ps_predict(train,0)*mx1.predict(train[X]))

x_cate_test = test.assign(cate=(ps_predict(test,1)*mx0.predict(test[X]) +
                                ps_predict(test,0)*mx1.predict(test[X])))
 
mytarmailS #:

Nun, das ist die Frage: Auf den ersten Blick gibt es einen Zusammenhang...
Woher wissen Sie, ob es sich nur um einen Zusammenhang handelt oder ob AB tatsächlich C verursacht?

Es ist nicht klar, ob diese Zeilen sofort bekannt sind oder ob sie Buchstabe für Buchstabe erscheinen. Was bewirkt, dass diese Buchstaben erscheinen. Wenn es nur eine Folge von Mustern ist, sieht die Aufgabe nicht sehr formalisiert aus. Warum wurde die Länge der Zeichenfolge gewählt und so weiter. Vielleicht sind die Daten gar nicht in der richtigen Form dargestellt.

Lesen Sie das Buch, vielleicht finden Sie die Antwort.

 

Sanych, Kozul ist ein komplexes Thema, das nicht jeder auf Anhieb verstehen kann. Wenn du etwas nicht verstehst, heißt das nicht, dass dort etwas Falsches geschrieben steht.

Leiden Sie nicht, wenn Sie es nicht wollen. Sonst geht es dir wie in dem Gleichnis mit den Perlen.

 
Maxim Dmitrievsky #:

Sanych, Kozul ist ein komplexes Thema, das nicht jeder auf Anhieb verstehen kann. Wenn du etwas nicht verstehst, heißt das nicht, dass dort etwas Falsches steht.

Leide nicht, wenn du es nicht willst.

Kozul - das ist eine Werbemaßnahme, und das ganze Buch ist nichts anderes als eine Werbung für die ungewöhnliche Neuheit der Neuheit der gewöhnlichsten Bestimmungen der mathematischen Statistik. Aber mathematische Statistik ist ein wirklich schwieriges Thema.

Hier ist das Ergebnis von Hunderten von Seiten Text:

To the code at last! First, we have the first stage, which is exactly the same as the T-Learner.

from sklearn.linear_model import LogisticRegression

np.random.seed(123)

# first stage models
m0 = LGBMRegressor(max_depth=2, min_child_samples=30)
m1 = LGBMRegressor(max_depth=2, min_child_samples=30)

# propensity score model
g = LogisticRegression(solver="lbfgs", penalty='none') 

m0.fit(train.query(f"{T}==0")[X], train.query(f"{T}==0")[y])
m1.fit(train.query(f"{T}==1")[X], train.query(f"{T}==1")[y])
                       
g.fit(train[X], train[T]);
Now, we impute the treatment effect and fit the second stage models on them.

d_train = np.where(train[T]==0,
                   m1.predict(train[X]) - train[y],
                   train[y] - m0.predict(train[X]))

# second stage
mx0 = LGBMRegressor(max_depth=2, min_child_samples=30)
mx1 = LGBMRegressor(max_depth=2, min_child_samples=30)

mx0.fit(train.query(f"{T}==0")[X], d_train[train[T]==0])
mx1.fit(train.query(f"{T}==1")[X], d_train[train[T]==1]);
Finally, we make corrected predictions using the propensity score model.

def ps_predict(df, t): 
    return g.predict_proba(df[X])[:, t]
    
    
x_cate_train = (ps_predict(train,1)*mx0.predict(train[X]) +
                ps_predict(train,0)*mx1.predict(train[X]))

x_cate_test = test.assign(cate=(ps_predict(test,1)*mx0.predict(test[X]) +
                                ps_predict(test,0)*mx1.predict(test[X])))

Soweit ich das Programmieren verstehe, ist der angegebene Code KEIN funktionierender Code: Funktionen, die nicht wissen, woher sie kommen, Ergebnisse werden nichts zugewiesen, Funktionsargumente sind aus dem Nichts entstanden.

 
"...damit sie es nicht mit ihren Füßen zertreten und sich umdrehen und dich nieder reißen"
 

Maxim ist hoffnungslos unfähig, eine sachliche Diskussion zu führen.

Gibt es irgendjemanden im Forum, der die Kopie des Codes aus dem Buch, das ich angegeben habe, versteht?

Ich selbst wende verschiedene Ansätze an, um die Ergebnisse mehrerer Modelle zu kombinieren, ich weiß, aber ich wende nicht noch mehr an, aber ich habe etwas Ähnliches nicht gesehen, vielleicht wegen der Unverständlichkeit des Codes.

 
😀😀😀

Ist die Verleugnungsphase, die Phase nach der Überraschung, schon zu Ende? Sie dauert sehr lange. Wann wird die Akzeptanzphase beginnen?
 

Ein wunderbarer Abschnitt im Anhang zu den Büchern, der von der völligen Nutzlosigkeit all dieser Cajuela spricht:

"

Warum Vorhersagemetriken für Kausalmodelle gefährlich sind".

und die Schlussfolgerung des Abschnitts:

Mit anderen Worten, die Vorhersageleistung in einem zufälligen Datensatz sagt nichts darüber aus, wie gut ein Modell für kausale Schlussfolgerungen ist.


Yandex-Übersetzung

Warum die Vorhersageleistung für kausale Modelle gefährlich ist

Mit anderen Worten, die Vorhersageleistung auf einem zufälligen Datensatz entspricht nicht unserer Präferenz dafür, wie gut ein Modell für kausale Schlussfolgerungen ist


D.h. für den Autor ist das Wichtigste die kausale Inferenz selbst, und der Versuch, sie zu nutzen, verdirbt die Schönheit der ganzen Konstruktion.

Schummeln!

 
Damit will ich nur sagen, dass durch übertrainierte Modelle mit einer großen Anzahl von Störfaktoren der Kausalschluss kompliziert ist. Darüber habe ich schon mehrmals geschrieben. Und es ist völlig natürlich. Und selbst Optimierer streiten sich über solch einfache Dinge. Nun ja, wenn man es liest und nicht aus dem Zusammenhang reißt.

Aber es ist nicht lustig, mit stotternden Geifernden überhaupt etwas zu diskutieren. Ihr seid einfach so engstirnig. Auch wenn du nicht weißt, wer ein Lehrer ist und Ensemble mit Staking verwechselst.

Du unterscheidest nicht einmal zwischen matstat und kozul, für dich ist alles dasselbe (aus Unwissenheit).

Wie lange interessieren Sie sich schon für MO im Allgemeinen, zeitlich gesehen? Rein aus müßigem Interesse. Können Sie selbst einen Klassifikator schreiben oder einen NS beliebiger Architektur aus einem Konstruktor wie Pytorch bauen. Oder zumindest einen eigenen Tester? Das ist ein Mysterium, das mit Dunkelheit bedeckt ist.

Das heißt, was können Sie dem Autor des Buches entgegensetzen? Warum sollte man auf Sie hören und nicht auf ihn, zum Beispiel)?