Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 595

 
SanSanych Fomenko:

Wenn Sie ein Gebäude namens "Statistik" betreten, steht über dem Eingang"Müll rein, Müll raus".




Jeder Indikator ist eine Funktion des Preises. Neuronale Netze haben keine Nachsicht. Es ist in der Lage, jede Indikatorformel selbst abzuleiten, wenn das Netz tief genug ist. Wenn das Netz nicht auf der Grundlage von Preisdaten lernen kann, liegt das nicht an den Inputs, sondern daran, dass es nicht möglich ist, Output-Daten zum Preis zu erhalten.

 
Grigoriy Chaunin:

Jeder Indikator ist eine Funktion des Preises. Neuronale Netze haben keine Nachsicht. Es ist in der Lage, jede Indikatorformel selbst abzuleiten, wenn das Netz tief genug ist. Wenn das Netz nicht aus Preisdaten lernen kann, dann geht es nicht um Inputs, sondern um die Tatsache, dass man im Prinzip keine Output-Daten aus dem Preis gewinnen kann.

Sie und SanSanych haben beide Recht.

Einerseits wird der NS automatisch die notwendigen Indikatoren und deren Gesamtheit erstellen. Sind die Daten hingegen unbearbeitet und zu stark verrauscht, kann kein NS etwas lernen. Es geht also auch um den Input.

 

Wie wichtig ist es, die Probe beim Training des NS zu mischen, und wie lässt sich dies mathematisch begründen?

Ist das Mischen für alle MOE-Modelle relevant oder nur für einige bestimmte?

 
Maxim Dmitrievsky:

Wie wichtig ist es, die Probe beim Training des NS zu mischen, und wie lässt sich dies mathematisch begründen?

Ist die Vermischung für alle MoD-Modelle relevant oder nur für bestimmte Modelle?

Das Mischen ist notwendig, um zu verhindern, dass der Lernalgorithmus in jeder Schleife demselben Pfad folgt. Wir können dorthin gelangen und es nicht schaffen, aus dem lokalen Extremum herauszukommen. Aber auch das Mischen ist kein Allheilmittel.
 
Yuriy Asaulenko:
Damit der Lernalgorithmus nicht bei jedem Zyklus denselben Weg einschlägt, ist es notwendig, dass er sich gegenseitig ergänzt. Es kann sein, dass wir auf das lokale Extremum treffen und es nicht schaffen, es zu überwinden.

d.h. müssen Sie ein paar Mal mischen und trainieren und sehen, wie die Ergebnisse korrelieren?

 
Maxim Dmitrievsky:

D.h. ein paar Mal mischen, ein paar Mal trainieren und sehen, wie die Ergebnisse korrelieren?

Rühren Sie alle paar Epochen des Trainings um. Leider erlauben viele Lernalgorithmen keine Pausen (siehe Python - einige Pakete (Module)) und beginnen jedes Mal von vorne.

Das Rühren lässt sich auch gut mit dem Glühen kombinieren. Aber auch hier ist es schwierig, dies an der Maschine zu tun. Man muss sich immer die Zwischenergebnisse ansehen und dann weitere Schritte planen.

 
Yuriy Asaulenko:

Der Shuffle muss alle paar Epochen des Trainings durchgeführt werden. Leider erlauben viele Lernalgorithmen keine Pausen (siehe Python - einige Pakete (Module)) und beginnen jedes Mal von vorne.

Das Rühren lässt sich auch gut mit dem Glühen kombinieren. Aber auch hier ist es schwierig, dies an der Maschine zu tun. Sie müssen immer die Zwischenergebnisse beobachten und dann Ihre nächsten Schritte planen.


wow... das war's... d.h. es macht keinen Sinn, es vor dem Training zu mischen

 
Alexander_K2:Ich kenne Leute, die den Gral von NS gezogen haben, aber diese Leute sind so verschlossen gegenüber Kommunikation und sogar Andeutungen darüber, was sie tun, dass ich als Anfänger keine Chance habe. Ich weiß nur, dass alles kompliziert ist, es geht nicht um Vels, nicht um Metatrader und auch nicht um S#, sondern um C++ und MatLab mit einigen Chips, die die von den Kalibratoren stammenden Daten dekodieren und interpretieren, es hat sich herausgestellt, dass es sich um ein und dieselbe Methodik handelt, ich habe gehört und bin erschrocken, sie arbeiten mit einem Onkel zusammen, der früher am CERN täglich Terabytes zerkleinert hat und nach neuen Teilchen im Quantenchaos gesucht hat.

Und jetzt haben Sie es) Rattlesnake ist CatBoost.
---------
Wenn Sie mal Lust haben, ein Boson zu fangen...
https://www.kaggle.com/c/higgs-boson

Higgs Boson Machine Learning Challenge
Higgs Boson Machine Learning Challenge
  • www.kaggle.com
Use the ATLAS experiment to identify the Higgs boson
 

Darch mischt standardmäßig vor jeder Epoche. Ich habe versucht, ihn auszuschalten - er hat überhaupt nichts gelernt.

Ich habe mich also gefragt, wie kann ich, wenn alles neu gemischt wird, dafür sorgen, dass neue Daten einen stärkeren Effekt auf das Lernen haben?

 
elibrarius:

Darch mischt standardmäßig vor jeder Epoche. Ich habe versucht, ihn auszuschalten - er hat überhaupt nichts gelernt.

Ich habe mich also gefragt, wie kann ich, wenn alles neu gemischt wird, dafür sorgen, dass neue Daten einen stärkeren Effekt auf das Lernen haben?

Versuchen Sie eine Kreuzvalidierung (K-fach).