Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2723

 
Maxim Dmitrievsky #:
Es gibt mehr Zufälligkeiten, also muss man etwas herumprobieren, damit es funktioniert.

Sie können die Reihe in ihre Bestandteile zerlegen, den zufälligen und den deterministischen Teil finden. Den zufälligen Teil verwerfen, den Rest lassen... Ein Standardfall für die BP-Verarbeitung ...

Aber nein, das funktioniert auch nicht.

Irgendwann wird bei neuen Daten der zufällige Teil zum deterministischen und der deterministische Teil zum zufälligen Teil....

Also auch KEINE)

 
mytarmailS #:

Sie können die Reihe in Komponenten zerlegen (Dekomposition), den zufälligen und den deterministischen Teil finden. den zufälligen Teil verwerfen, den Rest lassen... Ein Standardfall für die BP-Verarbeitung ...

Aber nein, das funktioniert auch nicht.

Irgendwann wird bei neuen Daten der Zufallswert zum deterministischen Wert und der deterministische Wert zum Zufallswert....

Also funktioniert es auch nicht.)

Natürlich haben die Tutorials einfache BPs, um es leichter zu erklären. In Wirklichkeit ist es komplizierter als das.

Es gibt andere nicht-finanzielle VRs, die ebenfalls schwer vorherzusagen sind, mit einem gewissen Minimum an möglichen Fehlern. Aber im Handel ist es einfacher, weil man nicht ständig vorhersagen muss, sondern das Modell so einstellen kann, dass es dies selektiv tut. Das habe ich im letzten Artikel getan, jetzt bleibt noch das Thema der Auswahl informativer Merkmale. Ich habe mir bereits eine Methode überlegt, jetzt muss ich nur noch experimentieren.

Ich möchte meinen Ansatz fertigstellen und er sollte universell werden, entsprechend der Idee, d.h. er sollte für jede Währung Ergebnisse liefern

Und Sie machen mit Ihren Events auch die 3. Klasse im Grunde genommen nicht handelbar, da gibt es nichts Neues. Sie unterteilen den BP in das, was vorhergesagt wird und das, was nicht vorhergesagt wird.
 
Maxim Dmitrievsky #:
Und Sie mit Ihren Events machen auch 3. Klasse keinen Handel im Wesentlichen, nichts Neues da. Sie unterteilen den BP in das, was vorhergesagt wird, und das, was nicht vorhergesagt wird.

Das ist Ihre Fantasie, nicht die Realität.


Ich sehe das bisher folgendermaßen:

Es gibt Daten, sagen wir mal 100k Beobachtungen, ich nenne sie "X.big".

1) wir wählen aus (Muster, Regel, Ereignis, Signal von TS), was uns interessiert, ich nenne es "Anfangsregel" (Alexey Funtz Aktivierung. Der Name ist extrem unglücklich, aber...).

2) wir wählen die "Anfangsregel" aus den Daten aus und jetzt haben wir 100-1000 Beobachtungen, nicht 100k, wir haben den Suchraum "X.small" reduziert.

3) in "X.small" starten wir eine umfassende Suche nach Merkmalen, ich sehe Merkmale in Form von sequentiellen Regeln, die Regeln werden automatisch durch genetische Programmierung generiert, ich möchte eine umfassende Suche, aber ich bin nicht sicher, ob ich das tun kann

4) Ein Array der erstellten Attribute wird in das Modell eingespeist, sagen wir 1000 Stück auf einmal.

5) das Modell (irgendein AMO) wählt Merkmale nach Wichtigkeit aus und speichert gute Merkmale, erhält ein neues Array, etc....

6) Als Ergebnis der Suche erhalten wir mehrere tausend funktionierende Attribute nach einer bestimmten " Anfangsregel ".


Wenn wir also all dies als Modell bezeichnen, kommt das Modell selbst auf Milliarden von Merkmalen und wählt aus, was notwendig ist.

 
mytarmailS #:

Das ist Ihre Fantasie, nicht die Realität


So sehe ich das bis jetzt:

Es gibt Daten, sagen wir mal 100k Beobachtungen, ich nenne sie "X.big".

1) wir identifizieren (Muster, Regel, Ereignis, Signal aus dem TS), was uns interessiert, ich nenne es "Anfangsregel" (Alexey Funtz. Aktivierung. der Name ist extrem unglücklich, aber...).

2) wir wählen die "Anfangsregel" aus den Daten aus und haben nun 100-1000 Beobachtungen, nicht 100k, weil wir den Suchraum "X.small" reduziert haben.

3) in "X.small" starten wir eine umfassende Suche nach Merkmalen, ich sehe Merkmale in Form von sequentiellen Regeln, die Regeln werden automatisch durch genetische Programmierung generiert, ich möchte eine umfassende Suche, aber ich bin mir nicht sicher, ob es funktionieren wird.

4) Ein Array der erstellten Merkmale wird in das Modell eingespeist, sagen wir 1000 Stück auf einmal.

5) Das Modell wählt die Merkmale nach ihrer Wichtigkeit aus und speichert die guten Merkmale, erstellt ein neues Array usw. ....

6) Als Ergebnis der Suche erhalten wir mehrere tausend funktionierende Attribute nach einer bestimmten " Anfangsregel ".


Wenn wir also all dies als Modell bezeichnen, kommt das Modell selbst mit Milliarden von Merkmalen daher und wählt aus, was notwendig ist.

Nochmals 25... das ist von der Bedeutung her nicht anders als eine 3-Klassen-Klassifikation.

 
Maxim Dmitrievsky #:

Nochmals 25. es ist nicht anders als eine 3-Klassen-Klassifizierung in der Bedeutung

Ich möchte einen Datensatz erstellen und sehen, welcher Algorithmus besser ist.

 
Maxim Dmitrievsky #:
Der eine sagt, ich hätte seine Ideen gestohlen, der andere, er hätte sie mir beigebracht... wer seid ihr eigentlich? ))))

"Gestohlen" - hast du das gerade gesagt? Du bist schamlos, das kann ich dir sagen.

Forum zum Thema Handel, automatisierte Handelssysteme und Testen von Handelsstrategien.

Maschinelles Lernen im Handel: Theorie, Praxis, Handel und mehr

Aleksey Vyazmikin, 2020.12.03 19:11

Die Idee ist also, das Modell zu bewerten, und das Modell entwirrt tatsächlich verwirrende Ziele, und wir können seinen Erfolg in diesem Fall bewerten, nicht nur um zu sehen, wie verwirrend alles ist.

Ich denke daran, die Kaskaden-Lernmethode auszuprobieren (ein Begriff, den ich selbst geprägt habe - vielleicht gibt es etwas anderes). Die Diagramme zeigen, dass es Bereiche gibt, in denen das Training erfolgreich ist - lassen Sie diesen Bereich, und was über diesen Bereich hinausgeht, trainieren Sie erneut, nachdem Sie zuvor aus der Stichprobe Beispiele entfernt haben, die in die Verteilung des linken Bereichs fallen. Ich habe bereits versucht, es von Hand zu tun - der Effekt war gut, jetzt denke ich, es zu automatisieren, aber der zweite Tag immer noch kein Glück - ich habe Angst, dass der Effekt war zufällig - ich will nicht verärgert sein. Was ist Ihre Meinung zu diesem Thema? Ich denke, es ist einfach, es in Python zu tun.

Es wurde in dem Artikel besprochen.

Ich zitiere:

"

Wir wollen einen Algorithmus schreiben, der in der Lage ist, seine eigenen Fehler zu analysieren und zu korrigieren und so seine Ergebnisse iterativ zu verbessern. Zu diesem Zweck schlagen wir vor, zwei Klassifikatoren zu nehmen und sie nacheinander zu trainieren, wie im folgenden Diagramm vorgeschlagen.

"

"

Die Intuition dieses Ansatzes besteht darin, dass es sich bei Verlustgeschäften um Klassifizierungsfehler der ersten Art für das zugrunde liegende Modell handelt, in der Terminologie der Konfusionsmatrix. Das heißt, es handelt sich um Fälle, die das Modell als falsch positiv einstuft. Das Metamodell filtert solche Fälle heraus und vergibt eine Punktzahl von 1 für echte positive Fälle und 0 für alles andere. Durch die Filterung des Metamodell-Datensatzes zum Trainieren des Basismodells erhöhen wir dessen Präzision, d. h. die Anzahl der richtigen Kauf- und Verkaufsauslöser. Gleichzeitig erhöht das Metamodell seinen Recall (Vollständigkeit), indem es so viele verschiedene Ergebnisse wie möglich klassifiziert.

"

Die Ideen sind dieselben, aber Sie haben die Implementierung durchgeführt und die Details ausgearbeitet - ich habe nur das Konzept genannt und bin mir nicht sicher, ob ich meine Experimente und den Implementierungscode veröffentlicht habe.

Ich habe Sie in dem Zusammenhang daran erinnert, dass Sie vielleicht jetzt noch nicht verstehen, worum es geht, und es dann später verwenden, wenn Sie es verstehen. Und dass das Nichtverstehen kein Grund ist, sich unangemessen zu verhalten und Ihre Werturteile über die Persönlichkeiten und die Logik der Menschen zu äußern.

 
mytarmailS #:

Ich möchte einen Datensatz erstellen und sehen, welcher Algorithmus besser ist.

Woraus soll der Datensatz bestehen? Ich nehme nur Zitate als Eingabe.

 
Aleksey Vyazmikin #:

"Gestohlen" - haben Sie das gerade gesagt? Er ist schamlos, das merke ich.

Das ist es, worum es in dem Artikel ging.

Zitat:

"

Wir wollen einen Algorithmus schreiben, der in der Lage ist, seine eigenen Fehler zu analysieren und zu korrigieren und so seine Ergebnisse iterativ zu verbessern. Um dies zu erreichen, schlagen wir vor, zwei Klassifikatoren zu nehmen und sie nacheinander zu trainieren, wie im untenstehenden Diagramm vorgeschlagen.

"

"

Die Intuition dieses Ansatzes besteht darin, dass Verlustgeschäfte in der Terminologie der Konfusionsmatrix Klassifizierungsfehler der ersten Art für das zugrunde liegende Modell sind. Das heißt, es handelt sich um die Fälle, die das Modell als falsch positiv einstuft. Das Metamodell filtert solche Fälle heraus und vergibt eine Punktzahl von 1 für echte positive Fälle und 0 für alle anderen. Durch die Filterung des Metamodell-Datensatzes zum Trainieren des Basismodells erhöhen wir dessen Präzision, d. h. die Anzahl der richtigen Kauf- und Verkaufsauslöser. Gleichzeitig erhöht das Metamodell seinen Recall (Vollständigkeit), indem es so viele verschiedene Ergebnisse wie möglich klassifiziert.

"

Die Ideen sind dieselben, aber Sie haben die Implementierung durchgeführt und die Details ausgearbeitet - ich habe nur das Konzept genannt und bin mir nicht sicher, ob ich meine Experimente und den Implementierungscode veröffentlicht habe.

Ich habe daran erinnert, dass Sie vielleicht jetzt noch nicht verstehen, worüber wir reden, und es später verwenden können, wenn das Verständnis da ist. Und dass das Nichtverstehen kein Grund ist, sich unangemessen zu verhalten und seine Werturteile über die Persönlichkeiten und die Logik der Menschen zu äußern.

Nehmen wir also den Code aus dem Artikel und überprüfen wir ihn. Warum sollte ich verstehen, worüber wir reden, wenn es noch nichts gibt.

Ich habe viele Varianten solcher Implementierungen, darunter auch solche mit Umschulung statt erneuter Umschulung, Umschulung nach Grundlinien und so weiter.

Vor allem, wenn man damit anfängt, ist das Ergebnis anders als die ursprünglich geplante Fantasie

 
Maxim Dmitrievsky #:

Woraus soll der Datensatz bestehen? Ich nehme nur Zitate als Eingabe

OHLS-Preise für die letzten 200 Stück und ein Etikett, Sie können die Zeit hinzufügen.

 
mytarmailS #:

OHLS Preise dauern 200pc und ein Tag, Zeit kann hinzugefügt werden.

200 Stück? Was ist so wenig. Ich habe keine Tags, ich habe automatische Aufteilung.

Ich werde es neu schreiben müssen.