Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3081

 

Dieser Artikel ist ein perfektes Beispiel für die Werbung für triviale Ergebnisse.

Schon der Titel"Kausale Effekte" stößt uns auf unsere Rückständigkeit, denn beim Studium verschiedener Sinuskurven haben wir nicht erkannt, dass dies das Ergebnis von kausalen Effekten ist, die sich daraus ergeben, dass man dem Sinus-Eingang Eingabedaten zuführt und das Ergebnis erhält.

Der Autor nimmt RF, gibt Eingabedaten an die Eingabe und erhält als Ergebnis einen Fehler.

Um jedem klar zu machen, dass wir es hier mit einer ganz neuen Richtung der MO zu tun haben, werden die Eingabedaten (Prädiktoren) als Kovariaten bezeichnet, der RF-Algorithmus wird als Meta-Lerner bezeichnet, und der gesamte Prozess wird als Kausale Effekte bezeichnet.

Die Apologeten der kausalen Effekte sind sich nicht bewusst, dass Kovariaten im Russischen manchmal diejenigen Prädiktoren sind, die nicht nur auf die Zielvariable, sondern auch auf benachbarte Prädiktoren wirken, d.h. der Begriff sollte präziser verwendet werden, um Mehrdeutigkeit zu vermeiden.

Den Algorithmus RF als "Meta-Learner" zu bezeichnen, ist ein weiterer Werbegag in Causal Effects, da dieser Algorithmus, der Regeln produziert, sicherlich KEIN Lerner ist. Aber aus werbetechnischer Sicht sollte es beim maschinellen Lernen Lernende geben und für die Bedeutung von "meta" und basta.

In dem Papier wird die Wahl von RF als Basisalgorithmus ausführlich begründet, wobei ausdrücklich darauf hingewiesen wird, dass jeder (?) MO-Algorithmus anstelle vonRF verwendet werden kann. Als Verallgemeinerung dieses Gedankens wird der Begriff nuisance, d. h. unangenehm, unausstehlich, lästig , verwendet. Im Text sollte er wahrscheinlich mit "eine Funktion des Rauschens" übersetzt werden, d. h. der RF-Algorithmus ist eine "Funktion des Rauschens". Aber wie kompliziert und schön das klingt, und vor allem der Leser, der vorher dachte, dass RF Regeln mit einem gewissen Fehler produziert, genießt es einfach.

Wir können fortfahren, aber das oben Gesagte reicht aus, um all diese kausalen Effekte als reine Werbung zu bezeichnen, die übrigens sehr erfolgreich ist, wenn der wirkliche Unsinn verkauft wird und einen Platz als Professor an der Stanford University bekommt, der Anhänger hat, die mit den neuen fortschrittlichen Trends Schritt halten wollen.

Wer ist also der Autor des vermeintlich neuesten Trends bei ME? Nach der Anzahl der Referenzen zu urteilen, ist es ein gewisser Victor Chernozhukov, ein Mann ohne Profilausbildung, der Anfang der 90er Jahre seinen Abschluss an einem landwirtschaftlichen Institut machte. Ich erinnere mich sehr gut an diese Zeit, als Millionen von Tschernozhukovs unter dem Ruf des ungetrübten Bewusstseins mit Bildung und Fakten allen möglichen Unsinn trieben und bewegten. und viele von ihnen wurden Milliardäre und Spitzenpolitiker.


Heute lebt die ganze Welt nach den Gesetzen der Werbung, alle Sphären, dachten, dass MO diesen Kelch passieren wird. Nun, nein.

 
СанСаныч Фоменко #:

Dieser Artikel ist ein perfektes Beispiel für die Werbung für triviale Ergebnisse.

Schon der Name"Kausale Effekte" stößt uns auf unsere Rückständigkeit, denn beim Studium verschiedener Sinuskurven haben wir nicht erkannt, dass dies das Ergebnis von kausalen Effekten ist, die sich daraus ergeben, dass man dem Sinus Input Daten gibt und das Ergebnis erhält.

Der Autor nimmt RF, gibt Eingabedaten ein und erhält als Ergebnis einen Fehler.

Um jedem klar zu machen, dass wir es hier mit einer völlig neuen Richtung in MO zu tun haben, werden die Eingabedaten (Prädiktoren) als Kovariaten bezeichnet, der RF-Algorithmus wird als Meta-Lerner bezeichnet, und der gesamte Prozess wird Kausale Effekte genannt.

Die Apologeten der kausalen Effekte sind sich nicht bewusst, dass Kovariaten im Russischen manchmal diejenigen Prädiktoren sind, die nicht nur auf die Zielvariable, sondern auch auf benachbarte Prädiktoren wirken, d.h. der Begriff sollte präziser verwendet werden, um Mehrdeutigkeit zu vermeiden.

Den Algorithmus RF als "Meta-Learner" zu bezeichnen, ist ein weiterer Werbegag in Causal Effects, da dieser Algorithmus, der Regeln produziert, sicherlich KEIN Lerner ist. Aber aus der Sicht der Werbung für maschinelles Lernen sollte es Studenten und für die Bedeutung von "meta" und basta geben.

In dem Papier wird die Wahl von RF als Basisalgorithmus ausführlich begründet, wobei ausdrücklich darauf hingewiesen wird, dass jeder (?) MO-Algorithmus anstelle vonRF verwendet werden kann. Als Verallgemeinerung dieses Gedankens wird der Begriff nuisance, d. h. unangenehm, unausstehlich, lästig , verwendet. Im Text sollte er wahrscheinlich mit "eine Funktion des Rauschens" übersetzt werden, d. h. der RF-Algorithmus ist eine "Funktion des Rauschens". Aber wie kompliziert und schön das klingt, und vor allem der Leser, der vorher dachte, dass RF Regeln mit einem gewissen Fehler produziert, genießt es einfach.

Man könnte noch weiter fortfahren, aber das oben Gesagte reicht aus, um all diese kausalen Effekte auf reine Werbung zu verweisen, die übrigens sehr erfolgreich ist, wenn der wirkliche Unsinn verkauft wird und einen Platz als Professor an der Stanford University bekommt, Anhänger findet, die mit den neuen fortschrittlichen Trends Schritt halten wollen.

Wer also ist der Autor des vermeintlich neuesten Trends in der ME? Nach der Anzahl der Referenzen zu urteilen, ist es ein gewisser Victor Chernozhukov, ein Mann ohne Profilausbildung, der Anfang der 90er Jahre seinen Abschluss an einem landwirtschaftlichen Institut machte. Ich erinnere mich sehr gut an diese Zeit, als Millionen von Tschernoschukows unter dem Ruf eines ungetrübten Bewusstseins mit Bildung und Fakten allen möglichen Unsinn trieben und bewegten, und viele von ihnen wurden Milliardäre und Spitzenpolitiker.


Heute lebt die ganze Welt nach den Gesetzen der Werbung, alle Sphären, dachten, dass MO diesen Kelch passieren wird. Nun, nein.

Danke für die Analyse, denn ich habe sie nicht gelesen. Das Video zum gleichen Thema war genug.
 
СанСаныч Фоменко #:

Dieser Artikel ist ein perfektes Beispiel für die Werbung für triviale Ergebnisse.

Schon der Name"Kausale Effekte" stößt uns auf unsere Rückständigkeit, denn beim Studium verschiedener Sinuskurven haben wir nicht erkannt, dass dies das Ergebnis von kausalen Effekten ist, die sich daraus ergeben, dass man dem Sinus Input Daten gibt und das Ergebnis erhält.

Der Autor nimmt RF, gibt Eingabedaten ein und erhält als Ergebnis einen Fehler.

Um allen klar zu machen, dass wir es hier mit einer völlig neuen Richtung der MO zu tun haben, werden die Eingabedaten (Prädiktoren) als Kovariaten bezeichnet, der RF-Algorithmus wird als Meta-Lerner bezeichnet, und der gesamte Prozess heißt Kausale Effekte.

Die Apologeten der kausalen Effekte sind sich nicht bewusst, dass Kovariaten im Russischen manchmal diejenigen Prädiktoren sind, die nicht nur auf die Zielvariable, sondern auch auf benachbarte Prädiktoren wirken, d.h. der Begriff sollte präziser verwendet werden, um Mehrdeutigkeit zu vermeiden.

Den Algorithmus RF als "Meta-Learner" zu bezeichnen, ist ein weiterer Werbegag in Causal Effects, da dieser Algorithmus, der Regeln produziert, sicherlich KEIN Lerner ist. Aber aus der Sicht der Werbung für maschinelles Lernen sollte es Studenten und für die Bedeutung von "meta" und basta geben.

In dem Papier wird die Wahl von RF als Basisalgorithmus ausführlich begründet, wobei ausdrücklich darauf hingewiesen wird, dass jeder (?) MO-Algorithmus anstelle vonRF verwendet werden kann. Als Verallgemeinerung dieses Gedankens wird der Begriff nuisance, d. h. unangenehm, unausstehlich, lästig , verwendet. Im Text sollte er wahrscheinlich mit "eine Funktion des Rauschens" übersetzt werden, d. h. der RF-Algorithmus ist eine "Funktion des Rauschens". Aber wie kompliziert und schön das klingt, und vor allem der Leser, der vorher dachte, dass RF Regeln mit einem gewissen Fehler produziert, genießt es einfach.

Man könnte noch weiter fortfahren, aber das oben Gesagte reicht aus, um all diese kausalen Effekte als reine Werbung zu bezeichnen, die übrigens sehr erfolgreich ist, wenn sich der wirkliche Unsinn verkauft und einen Platz als Professor an der Stanford University bekommen hat, um Anhänger zu finden, die mit den neuen fortschrittlichen Trends Schritt halten wollen.

Wer also ist der Autor des vermeintlich neuesten Trends in der ME? Nach der Anzahl der Referenzen zu urteilen, ist es ein gewisser Victor Chernozhukov, ein Mann ohne Profilausbildung, der Anfang der 90er Jahre seinen Abschluss an einem landwirtschaftlichen Institut machte. Ich erinnere mich sehr gut an diese Zeit, als Millionen von Tschernozhukovs unter dem Ruf eines ungetrübten Bewusstseins mit Bildung und Fakten allen möglichen Unsinn trieben und bewegten. und viele von ihnen wurden Milliardäre und Spitzenpolitiker.


Heute lebt die ganze Welt nach den Gesetzen der Werbung, alle Sphären, dachten, dass MO diesen Kelch passieren wird. Nun, nein.

Dies ist nur die Apotheose Ihrer professionellen Ungeschicklichkeit, wenn neue Informationen nicht in die Schale gehen. Oder Probleme mit der Übersetzung. Ich kann nur mitfühlen :)

 
Maxim Dmitrievsky #:

Es ist einfach der Gipfel der Profanität, wenn neue Informationen nicht mehr in die Schüssel passen. Oder Übersetzungsprobleme. Ich kann das nur nachempfinden :)

alle Begriffe werden verdreht, grundlegende Informationen werden bis zur Unkenntlichkeit verzerrt.

Können Sie dem Pöbel die unverzerrten Informationen vermitteln?

 
СанСаныч Фоменко #:

...

In dem Papier wird die Wahl von RF als Basisalgorithmus ausführlich begründet, wobei ausdrücklich darauf hingewiesen wird, dass jeder (?) MO-Algorithmus anstelle von RF verwendet werden kann. Als Verallgemeinerung dieses Gedankens wird der Begriff nuisance, d. h. unangenehm, unausstehlich, lästig, verwendet. Im Text sollte er wahrscheinlich mit "eine Funktion des Rauschens" übersetzt werden, d. h. der RF-Algorithmus ist eine "Funktion des Rauschens". Aber wie kompliziert und schön das klingt, und vor allem der Leser, der vorher dachte, dass RF Regeln mit einem gewissen Fehler produziert, genießt es einfach.

...

Ich habe gelesen und nach einer praktischen Anwendung von all dem gesucht - Sie haben also keine gefunden?

Ich hatte den Eindruck, dass der Artikel ein Instrument zur Auswertung der Messung der Abweichung der Gesamtstichprobenfläche von der Stichprobe, auf der das Training stattfand, liefern soll. Mit diesem Werkzeug ist es also möglich, anomale Teile der Stichprobe zu erkennen. Glauben Sie, dass es dieses Werkzeug gibt oder nicht?

 
Aleksey Vyazmikin #:

Können Sie dem einfachen Volk unverfälschte Informationen vermitteln?

Ich kann das nachempfinden

 
СанСаныч Фоменко #:

Ich dachte, ich würde einen Blowjob bekommen ..... Oh, nein.

Und ich bin der gleichen Meinung.))

Diese tiefsinnigen Worte beschreiben diesen ganzen Thread
 
Aleksey Vyazmikin #:

Ich habe gelesen und nach einer praktischen Anwendung von all dem gesucht - Sie haben also keine gefunden?

Ich hatte den Eindruck, dass der Artikel ein Instrument zur Auswertung der Messung der Abweichung der Sammelprobenfläche von der Probe, an der das Training stattfand, enthalten sollte. Mit diesem Werkzeug ist es also möglich, anomale Teile der Stichprobe zu erkennen. Ist es Ihrer Meinung nach vorhanden oder nicht?

Es steht nicht in dem Artikel.

Er beschreibt die übliche Anpassung mit unterschiedlicher Aufteilung der ursprünglichen Prädiktoren, einschließlich Kreuzvalidierung. Eine Routine, die mit Worten getarnt wurde.

 
СанСаныч Фоменко #:

Das steht nicht in dem Artikel.

Es wird die übliche Anpassung mit unterschiedlicher Aufteilung der ursprünglichen Prädiktoren, einschließlich Kreuzvalidierung, beschrieben. Eine Routine, die mit Worten getarnt wurde.

Danke für die Expertenmeinung.

 
Maxim Dmitrievsky #:


und Störfunktionen(oder Parameter) sind keine Rauschfunktionen, sondern Hilfsfunktionen, die keine Zielfunktionen für eine bestimmte Aufgabe sind


Kann ich in dem Artikel einen Link zu einer Übersicht über diese "Hilfsfunktionen" finden?

Gleichzeitig werden die Gründe für die Verwendung von RF, die als Basisfunktion bezeichnet wird und die als Ergebnis der Arbeit eine Menge Informationen berechnet, recht ausführlich beschrieben:

Ein Objekt der Klasse randomForest , das eine Liste mit den folgenden Komponenten ist:

Aufruf

der ursprüngliche Aufruf von randomForest

Typ

einer der Typen Regression, Klassifikation , oder unüberwacht .

vorhergesagt

die vorhergesagten Werte der Eingabedaten auf der Grundlage von Out-of-Bag-Stichproben.

Wichtigkeit

eine Matrix mit nclass + 2 (für Klassifizierung) oder zwei (für Regression) Spalten. Bei der Klassifizierung sind die ersten nclass-Spalten die klassenspezifischen Maße, die als mittlere Genauigkeitsabnahme berechnet werden. Die Spalte nclass + 1 ist die mittlere Abnahme der Genauigkeit über alle Klassen. Die letzte Spalte ist die mittlere Abnahme des Gini-Index. Bei der Regression ist die erste Spalte die mittlere Abnahme der Genauigkeit und die zweite die mittlere Abnahme des MSE. Bei importance=FALSE wird das letzte Maß weiterhin als Vektor zurückgegeben.

WichtigkeitSD

Die "Standardfehler" des permutationsbasierten Wichtigkeitsmaßes. Für die Klassifikation eine p x nKlasse + 1-Matrix , die den ersten nKlasse + 1-Spalten der Wichtigkeitsmatrix entspricht. Bei Regression: ein Vektor der Länge p.

localImp

eine p x n-Matrix, die die fallweisen Wichtigkeitsmaße enthält, wobei das Element [i,j] die Wichtigkeit der i-ten Variablen für den j-ten Fall darstellt. NULL, wenn localImp=FALSE .

ntree

Anzahl der angelegten Bäume.

mtry

Anzahl der Prädiktoren, die für die Aufteilung an jedem Knoten in die Stichprobe kommen.

Wald

(eine Liste, die den gesamten Wald enthält; NULL, wenn randomForest im unüberwachten Modus ausgeführt wird oder wenn keep.forest=FALSE .

err.rate

(nur Klassifikation) Vektor-Fehlerraten der Vorhersage für die Eingabedaten, wobei das i-te Element die (OOB-)Fehlerrate für alle Bäume bis zum i-ten ist.

Konfusion

(nur Klassifizierung) die Konfusionsmatrix der Vorhersage (auf der Grundlage von OOB-Daten).

Stimmen

(nur Klassifikation) eine Matrix mit einer Zeile für jeden Eingabedatenpunkt und einer Spalte für jede Klasse, die den Anteil oder die Anzahl der (OOB) "Stimmen" des Random Forest angibt.

oob.times

Anzahl der Fälle, die "out-of-bag" sind (und daher bei der Berechnung der OOB-Fehlerschätzung verwendet werden).

Nähe

wenn proximity=TRUE beim Aufruf von randomForest, eine Matrix von Proximity-Maßen zwischen den Eingaben (basierend auf der Häufigkeit, mit der sich Datenpunktpaare in denselben Endknoten befinden).

mse

(nur Regression) Vektor der mittleren quadratischen Fehler: Summe der quadrierten Residuen geteilt durch n .

rsq

(nur Regression) "Pseudo-R-Quadrat": 1 - mse / Var(y).

Test

Wenn eine Testmenge angegeben wird (durch die Argumente xtest oder zusätzlich ytest), ist diese Komponente eine Liste, die die entsprechenden vorausgesagten, err.rate, confusion, votes ( für Klassifikation) oder vorausgesagten, mse und rsq ( für Regression) für die Testmenge enthält. Bei Proximity=TRUE gibt es auch eine Komponente, Proximity , die die Proximity zwischen dem Testsatz sowie die Proximity zwischen Test- und Trainingsdaten enthält.


Es ist nicht bekannt, was genau der Autor von der obigen Liste verwendet, aber es gibt einfach keine anderen Quellen für die Bestimmung von Klassifizierungs- oder Regressionsfehlern bei der Verwendung von RF, und es besteht auch keine Notwendigkeit für sie.

Die von RF erzeugten Fehler sind für verschiedene Kombinationen von Eingabedaten unterschiedlich. Dies untersucht der Autor und zieht daraus Schlussfolgerungen über die Fehlervarianz und eine bestimmte, nicht bekannte, wie berechnete Verzerrung.