Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3019

 
Aleksey Vyazmikin #:

So habe ich auch geschrieben, was der Unterschied zwischen Gier und Genetik bei Holz ist - vielleicht habe ich die Frage nicht verstanden.

Ich habe noch nie davon gehört, dass man Regeln aus einem neuronalen Netz ziehen kann. Kannst du mir einen Link geben? Bislang zeichnet sich in meiner Vorstellung etwas Schwerfälliges ab.

Aber ich denke, dass neuronale Netze hier offensichtlich langsamer sein werden als Bäume, was die Geschwindigkeit der Ausgabe neuer Regeln angeht.

Ihre ganze Idee, "gute Regeln" von schlechten zu trennen, ist eine völlige Sackgasse, eine methodologische Sackgasse.

Aus irgendeinem Grund denken Sie, dass "gute" Regeln (Bäume) wirklich "gut" sind.

Und es ist nicht nur die Unbestimmtheit ihrer Zukunft, es ist die Tatsache, dass es überhaupt keine Regeln gibt, die nach irgendwelchen Kriterien betrachtet werden können. Es gibt Regeln, die eine VARIABILITÄT der "Güte" erzeugen, die sich mit der Bewegung des Fensters ändert, und es ist durchaus möglich, dass diese Regel mit der Bewegung des Fensters von "gut" zu "schlecht" wechselt. Diese Variabilität wird durch einen Wert definiert, der die Vorhersagewahrscheinlichkeit in Klassen unterteilt.

Bei den MO-Algorithmen erfolgt die Einteilung in Klassen üblicherweise durch Halbierung der Klassenvorhersagewahrscheinlichkeit, was jedoch völlig falsch ist. Ich betrachte den Wert der Klasseneinteilung - er ist niemals 0,5: Dieser Wert variiert und hängt vom jeweiligen Prädiktor ab.

Nun zurück zu Ihren "guten" Bäumen.

Wenn Sie Bäume ausgewählt haben, deren "Güte" in der Nähe des Schwellenwerts liegt, bewegt sich das. Aus diesem Grund habe ich oben argumentiert, dass die von Ihnen ausgewählten "guten" Bäume leicht zu schlechten Bäumen werden können.


Das ist eine Sackgasse.

 
Igor Makanu #:

Yandex schrieb etwas Ähnliches https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Nettes Tutorial von Yandex, nicht schlecht geschrieben. Ein anderer Abschnitt davon hat mehr mit dem zu tun, worum sich meine Gedanken drehen. Er beschreibt die allgemeine Art der Verlustfunktion, die bei der Baumkonstruktion verwendet wird. Die Idee dahinter ist, dass die Optimierung des durchschnittlichen Fehlerpreises und die Maximierung des Gewinns gleichbedeutend mit der Optimierung der Summe der Fehlerpreise ist.

In Gewinn ausgedrückt, ist dies die Differenz zwischen dem Gesamtgewinn und dem durchschnittlichen Gewinn in einem Handel. Da ich das Problem der binären Klassifizierung (Einstieg/Nicht-Einstieg) löse, wird die Maximierung des durchschnittlichen Gewinns in einem Geschäft dummerweise dazu führen, dass ich ein oder zwei Geschäfte eingehe und den Rest verwerfe.

Ich versuche zu verstehen, ob dies eine unüberwindbare Grenze zwischen Optimierung und MO ist oder nicht.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Nettes Tutorial von Yandex, nicht schlecht geschrieben. Worum sich meine Gedanken drehen, hat eher mit einem anderen Abschnitt des Tutorials zu tun. Er beschreibt die allgemeine Art der Verlustfunktion, die bei der Baumkonstruktion verwendet wird. Der Punkt ist, dass dort die Optimierung des durchschnittlichen Fehlerpreises und die Maximierung des Gewinns mit der Optimierung der Summe der Fehlerpreise gleichzusetzen ist.

In Gewinn ausgedrückt, handelt es sich um die Differenz zwischen dem Gesamtgewinn und dem durchschnittlichen Gewinn in einem Handel. Da ich das Problem der binären Klassifizierung (einsteigen/nicht einsteigen) löse, wird die Maximierung des durchschnittlichen Gewinns in einem Geschäft dummerweise dazu führen, dass ich ein oder zwei Geschäfte eingehe und den Rest verwerfe.

Ich versuche zu verstehen, ob dies eine unüberwindbare Grenze zwischen Optimierung und MO ist oder nicht.

Was hindert Sie daran, Ihre eigene Verlustfunktion zu schreiben?

 
Maxim Dmitrievsky #:
Das ist meine Zusammenfassung des Baumes ) Google funktioniert, ich benutze es selbst. Dipminds tun in der Regel sehr nahe an, wie ich selbst die Realität wahrnehmen.


Vielen Dank für den Rat!

 
Aleksey Vyazmikin #:

Danke für die Ratschläge!

Es ist kompliziert da draußen, habe gestern Abend eine Suche zu diesem Thema durchgeführt. Dieselben Bäume ziehen Regeln aus Skalen und NS-Schichten. Sie ziehen auch Regeln aus Super-Präzisionsnetzwerken ab. Ich werde es posten, sobald ich mehr Einblicke habe. Bäume in der explorativen Analyse sehen aus diesem Blickwinkel der Regelsuche irgendwie zu cool aus, wahrscheinlich übertrifft sie die genetische Optimierung in Bezug auf die Geschwindigkeit, mit einem richtig vorbereiteten Datensatz.
Ich habe es selbst noch nicht ausprobiert, vielleicht gibt es einige Fallstricke.
 
mytarmailS #:
Sie sollten derjenige sein, der sich mit Ihren Themen beschäftigt, nicht jemand anderes.....
Wenn es dir erst einmal in den Kopf gestiegen ist, ist es ein Prozess...

Denken Sie darüber nach.

Ich löse Probleme in MQL5, und wir haben über R gesprochen.

Eine Tatsache ist eine Tatsache - Sie sagen etwas, ohne nachzudenken, und gehen dann in die Büsche.

 
mytarmailS #:

Was hält Sie davon ab, Ihre FUN zu schreiben?

Nun, ich kann noch nicht herausfinden, wie ich zum Beispiel die Gewinnmaximierung in einem Bousting umsetzen kann.

Ich tue natürlich etwas, aber ich würde gerne andere informative Meinungen zu diesem Thema hören.

 
Aleksey Nikolayev #:

Nun, ich habe noch nicht herausgefunden, wie man zum Beispiel die Gewinnmaximierung in ein und dasselbe Bousting einbauen kann.

Ich tue natürlich etwas, aber ich würde gerne andere informative Meinungen zu diesem Thema hören.

Die Genauigkeit funktioniert gut mit ausgeglichenen Klassen. Habe alle Standardmetriken ausprobiert, fast kein Unterschied in den Ergebnissen. Gewinnmaximierung wird durch Markup mit maximal profitablen Trades umgesetzt, oder?)
 
СанСаныч Фоменко #:

Ihre ganze Idee, die "guten Regeln" von den "schlechten Regeln" zu trennen, ist eine völlige Sackgasse, eine methodologische Sackgasse.

Sie glauben irgendwie, dass "gute" Regeln (Bäume) wirklich "gut" sind.

Und es ist nicht nur die Unbestimmtheit ihrer Zukunft, es ist die Tatsache, dass es überhaupt keine Regeln gibt, die nach irgendwelchen Kriterien betrachtet werden können. Es gibt Regeln, die eine VARIABILITÄT der "Güte" erzeugen, die sich mit der Bewegung des Fensters ändert, und es ist durchaus möglich, dass diese Regel mit der Bewegung des Fensters von "gut" zu "schlecht" wechselt. Diese Variabilität wird durch einen Wert bestimmt, der die Vorhersagewahrscheinlichkeit in Klassen unterteilt.

Bei MO-Algorithmen erfolgt die Einteilung in Klassen üblicherweise durch Halbierung der Klassenvorhersagewahrscheinlichkeit, was jedoch völlig falsch ist. Ich betrachte den Wert der Klasseneinteilung - er ist niemals 0,5: Dieser Wert variiert und hängt vom jeweiligen Prädiktor ab.

Nun zurück zu Ihren "guten" Bäumen.

Wenn Sie Bäume ausgewählt haben, deren "Güte" in der Nähe des Schwellenwerts liegt, bewegt sich das. Aus diesem Grund habe ich oben argumentiert, dass Ihre ausgewählten "guten" Bäume leicht zu schlechten Bäumen werden können.


Das ist eine Sackgasse.

Sie selbst stellen Hypothesen darüber auf, was ich denke, und Sie widersprechen ihnen. Versuchen Sie, am Anfang Fragen zu stellen.

Sackgasse hin oder her, ich habe reale Ergebnisse gezeigt. Zeigen Sie das Gleiche mit einem Wald, in dem 50% der Blätter zwei Jahre nach dem Training 3 Klassen gewinnbringend klassifizieren. Soweit ich mich erinnere, haben Sie ein Konzept für regelmäßiges Umlernen der Modelle, fast einmal pro Woche.

Über die Drift brauche ich nichts zu sagen - ich habe einen separaten Thread im Forum erstellt, in dem versucht wird, das Problem zu lösen - wenn Sie Ideen austauschen möchten, machen Sie mit.

Die Methode ist also vielversprechend, aber es gibt noch etwas zu verbessern und zu entwickeln.

 
Aleksey Nikolayev #:

Nun, ich habe noch nicht herausgefunden, wie man zum Beispiel die Gewinnmaximierung in ein und dasselbe Bousting einbauen kann.

Ich tue natürlich etwas, aber ich würde gerne andere informative Meinungen zu diesem Thema hören.

Nun, ich habe Ihnen gezeigt, wie man Forrest auf Gewinnmaximierung trainiert.

Das ist ein einfaches gradientenfreies Lernen durch eine Fitnessfunktion, im Wesentlichen RL.

Ich habe den Code hier reingeworfen, aber diese Methode ist für große Aufgaben nicht sehr effektiv.


Für große Aufgaben müssen wir das gradientenfreie Lernen in ein gradientenbasiertes Lernen umwandeln, d. h. in ein reguläres typisches RL-Verfahren.

Schauen Sie sich die erste Hälfte dieses Videos an , dort wird erklärt, wie man es trainiert.

Es gibt ein Beispiel mit Neuronen, aber es ist nicht wichtig, ob es ein Boost oder etwas anderes ist.

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai