Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2792
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich habe das Gleiche vor mehr als einem Jahr mit Clustering gemacht, dann habe ich Durchschnittswerte wie auf den Bildern ermittelt und daraus Aufträge erteilt. Aufgeteilt in 3 Cluster oben, unten, Mittelwertumkehr. Das funktioniert super beim Training.
Ja. Offensichtlich kann man aus Preisen nichts herausholen. Es gibt nichts anderes. Es gibt auch Volumina an der Börse.
Offensichtlich ist FA das Einzige, was etwas geben kann. Und es ist wahrscheinlich besser, es manuell zu machen. Aber auch da kann man sich irren, Fake News sind aktiv am Werk.
Ich habe die Informativität der Attribute überprüft, indem ich sie rückwärts verschoben habe. Das heißt, wir nehmen nicht die letzten Werte der Geschichte der Attribute, sondern mit einem Einzug in die Vergangenheit. Ich habe 50 Einrückungen vorgenommen. (von Null bis -50 Balken)
In der rechten Spalte Einrückung in Balken, in der linken Spalte gegenseitige Information. Die Einrückung erfolgt in aufsteigender Reihenfolge der gegenseitigen Informationen zwischen Chips und Etiketten.
Es hat sich gezeigt, dass die letzten Preise nicht immer besser sind als die vorherigen, es gibt einen gewissen Anstieg bei -11 Balken im Vergleich zum Null-Balken:
indikativ
Was meinen Sie mit "gegenseitiger Information"? Ist es interessant, wie sich der fic auf die Marke auswirkt. Ist die wechselseitige Beeinflussung interessant? Wie wird die "gegenseitige Information" berechnet?
Was meinen Sie mit "gegenseitiger Information"? Ist es interessant, wie sich das Datenblatt auf den Tag auswirkt? Ist der wechselseitige Einfluss interessant? Wie wird die "gegenseitige Information" berechnet?
Sie verblüffen mich mit Ihren Fragen
Ich habe die Informativität der Attribute überprüft, indem ich sie rückwärts verschoben habe. Das heißt, wir nehmen nicht die letzten Werte der Geschichte der Attribute, sondern mit einem Einzug in die Vergangenheit. Ich habe 50 Einrückungen vorgenommen. (von Null bis -50 Balken)
In der rechten Spalte Einrückung in Balken, in der linken Spalte gegenseitige Information. Die Einrückung erfolgt in aufsteigender Reihenfolge der gegenseitigen Informationen zwischen Chips und Etiketten.
Es hat sich gezeigt, dass die letzten Preise nicht immer besser sind als die vorherigen, es gibt einen gewissen Anstieg bei -11 Balken im Vergleich zum Null-Balken:
indikativ
Sieht nach Tageszyklen aus. 22-24 Stunden sind am aufschlussreichsten. Der heutige Tag wird also derselbe sein wie der gestrige.
Sie verblüffen mich mit Ihren Fragen
Warum verblüfft?
Für mich lässt sich der Einfluss, die Verbindung, die Vorhersagekraft eines Merkmals, eines Chips, eines Prädiktors mit einem Label anhand des folgenden Beispiels erklären.
Nehmen wir an, es gibt ein Label "Person", das zwei Werte annimmt: männlich und weiblich.
Angenommen, es gibt ein Etikett "Kleidung", das zwei Werte annimmt: Hosen und Röcke, und die Anzahl der Werte verschiedener Hosen und Röcke beträgt Hunderte oder Tausende.
Nehmen wir an, dass Männer nur Hosen und Frauen nur Röcke tragen. Dann bestimmt ein solches Datenblatt das Etikett ohne Fehler, d. h. Vorhersagefehler = 0 %. Wir können davon ausgehen, dass die Fiche das Etikett zu 100% vorhersagt, also gebunden ist. Wenn solche Bedingungen in der Zukunft beibehalten werden, wird sich der Fehler nicht ändern und =- 0% sein.
In der modernen Gesellschaft ist dies nicht der Fall, und es wird einen Vorhersagefehler geben, dessen Größe nicht bekannt ist und der je nach Befüllung des Datenblattes variieren kann.
Es gibt eine große Anzahl von Ansätzen, die in Form von Softwarepaketen implementiert sind, die für unser Beispiel für die Liebe eines Teils der Frauen zu Hosen und der Männer zu Röcken eine gewisse Abweichung von 100% Verbindung des Chips mit der Marke zeigen werden.
Die Diagramme zeigen dies sehr gut.
Ein Beispiel für eine nutzlose Funktion:
Ein Beispiel für ein recht vielversprechendes Merkmal. Der Schnittpunkt ist ein Vorhersagefehler. Im vorigen Diagramm hat sich ein Chip vollständig mit dem anderen überschnitten - der Vorhersagefehler beträgt 50 %.
Ist dies ein Maß für den Unterschied zwischen den Chips im ersten Diagramm oder im zweiten Diagramm? Der Unterschied in den Schätzungen beträgt das 2,5-fache. Aber die Zahlen sind relativ. Sind alle Merkmale Schrott, einige oder alle von ihnen großartig?
Ja, gut, okay. Lass es so sein
Ja, nun, okay. So sei es
Es ist besser, Merkmale nicht anhand einiger Methoden und Pakete zu bewerten, die nichts mit dem Modell zu tun haben, sondern anhand des Modells selbst.
Vor 2 Jahren habe ich Methoden zur Bewertung der Bedeutung von https://www.mql5.com/ru/blogs/post/737458 verglichen .
Das Modell selbst wurde als Beispiel genommen. Ich habe es N-mal trainiert (entsprechend der Anzahl der Merkmale) und dabei eines der Merkmale entfernt.
Je mehr sich das Ergebnis nach dem Entfernen eines Merkmals verschlechterte, desto wichtiger war es. Es gab auch Chips, deren Entfernung das Ergebnis verbesserte, d. h. es handelt sich eindeutig um Rauschen.
Keine der Varianten zur Bestimmung der Wichtigkeit eines Merkmals entsprach der exemplarischen Wichtigkeit. Ich befürchte, dass auch die gegenseitige Information und andere Pakete inkonsistent sein könnten.
Esist besser, Merkmale nicht mit Hilfe von Methoden und Paketen zu bewerten, die nichts mit dem Modell zu tun haben, sondern mit dem Modell selbst.
Vor 2 Jahren habe ich Methoden zur Bewertung der Wichtigkeit verglichen https://www.mql5.com/ru/blogs/post/737458
Das Modell selbst wurde als Beispiel genommen. Ich trainierte es N-mal (entsprechend der Anzahl der Merkmale), wobei ich eines der Merkmale entfernte.
Je mehr sich das Ergebnis nach dem Entfernen eines Merkmals verschlechterte, desto wichtiger war es. Es gab auch Chips, deren Entfernung das Ergebnis verbesserte, d. h. es handelt sich eindeutig um Rauschen.
Keine der Varianten zur Bestimmung der Wichtigkeit eines Merkmals entsprach der exemplarischen Wichtigkeit. Ich befürchte, dass auch die gegenseitige Information und andere Pakete inkonsistent sein könnten.
In erster Näherung haben Sie sicherlich Recht - man sollte eine Endnote haben, wenn man meint, ein Modell anhand seiner Leistungsmaße zu bewerten.
Aber es gibt eine Nuance, die alles überwiegt.
Die Bewertung eines Modells anhand seiner Leistung ist eine Bewertung anhand historischer Daten. Aber wie wird sich das Modell in der Zukunft verhalten?
Wenn wir die Merkmale selbst bewerten, können wir ein Fenster laufen lassen und Statistiken über die Veränderung des Werts eines Merkmals erhalten, und zwar für jedes einzelne Merkmal. Meines Erachtens ist es besser, die Merkmale zu verwenden, die eine geringe Schwankung in ihrem Wert aufweisen, vorzugsweise weniger als 10 %. Mein fiktiver Satz hat Schwankungen von 10 % bis 120 % bei 500 Balken (aus dem Gedächtnis). Das bedeutet, dass der Score innerhalb des 10%-Kanals schwankt, d.h. die Zahl, die wir sehen, ist es. Aber bei 120% ist der Wert der Wichtigkeit, den wir sehen, das fic.