Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 962

 
Maxim Dmitrievsky:

Ich habe nur Einstiegspreise, ich leide nicht an Chips :) die Hauptsache ist die Auswahl der Ziele

MaximDmitrievsky:

ich weiß nicht, was ich als nächstes tun soll, niemand hat eine Idee, ich bin zu faul zum Denken

Ideen?

Sie geben die Preise, die Abweichung der Preise, den Logarithmus der Preise.... und was sollte die Ausgabe sein? - imho ist der Mechanismus der Höchstquote das, was man auf der kleinen TF finden kann

Versuchen Sie zu erraten, was die erste aktualisierte (gebrochene) auf der neuen Bar High[1] oder Low[1] sein wird - wenn Sie lernen, vorherzusagen, dann ist es ein Gewinn, weil Sie bereits wissen, die Richtung der Preisbewegung

;)

 
Igor Makanu:

Ideen?

Preiseinspeisung, Preisabweichungen, Preislogarithmus .... und wie soll die Ausgabe aussehen? - imho, max Quote Mechanismus, das ist, was Sie auf kleinen TFs mit Preis finden können

Versuchen Sie zu erraten, was die erste aktualisierte (gebrochene) auf der neuen Bar High[1] oder Low[1] sein wird - wenn Sie lernen, vorherzusagen, dann ist es ein Gewinn, weil Sie bereits wissen, die Richtung der Preisbewegung

;)

Zitiermechanismen sind ein eigenes Kapitel :)

Ich würde es gerne für Zeitrahmen von 5 bis 15 Minuten verwenden. Ich habe bereits auf den Screenshots gezeigt, dass es einige Regelmäßigkeiten feststellt, die nichts mit dem Zitieren zu tun haben. Aber es funktioniert nicht sehr lange auf dem Oszillator, höchstens 2X Spur.

Es ist interessant, sich die Aufschlüsselung anzusehen, ich sollte es versuchen.

 

Geschichte/Zukunft = 30000/1000. Input - Zeitreihe der Differenzen zwischen Schließen und Öffnen: iClose(NULL, 0, i+j+1+Shift) - iOpen(NULL, 0, i+j+1+Shift), wobei j von 0 bis 99 reicht (insgesamt 100 Stück). Das Ziel ist die Farbe des Balkens (0,1).

Auf Diagrammen nur OOS-Periode (Zukunft).

Es gibt keine Streuung. Das Niveau für die Eingabe des Auftrags ist 0.


Abstand - 2 Punkte. Ebene zur Eingabe eines Auftrags - 0.

Abstand - 2 Punkte. Pegel zur Auftragseingabe - 0,1

Abstand - 2 Punkte. Niveau für die Auftragserteilung - 0,15.

Verteilung der Prädikate auf die Klassen. Genauigkeit - 0,525.


 
Ilya Antipin:


Zuweisung von Prädikaten zwischen Klassen. Die Genauigkeit beträgt 0,525.

Einige Stichproben sind winzig - ich habe 100-200 Tausend Stichproben, und wenn ich einen Teil von 1000 nehme, besteht eine gute Chance, dass es eine bessere Paarung gibt.

 

Es ist sehr einfach, eine brillante Sache zu machen. Es ist schwer, den Zustand zu erreichen, in dem geniale Dinge gemacht werden. Amedeo Modigliani :)

Sie müssen also verschiedene Arten von Kräutern ausprobieren.

 
Maxim Dmitrievsky:

Nun, es gibt ein Modell, Züge stabil gut in verschiedenen Modifikationen, einige Arbeit 100% und mehr von Zügen auf oos, wie hier... (4 Monate Ausbildung, 10 Monate OOS) und dann Scheiße

Ich sehe keinen Sinn darin, die Demos zu testen, da bereits alles klar ist.

Ja, es ist schade, dass es die Demo nicht mehr gibt. Und alles nur, weil Sie auf der CB zu viel suchen, obwohl er den Artikel, der sagt, dass die CB, um das Modell zu wählen, kann nicht gebracht, und auf dem Forum eine Menge Zeit schrieb die gleiche Sache.

 
Dr. Trader:

Ja, es ist schade, dass Ihre Demo verschwunden ist. Und alles nur, weil Sie auf der OOS zu viel aussehen, obwohl der gleiche Artikel, wo es geschrieben wird, dass auf der OOS-Modell nicht wählen können, und auf dem Forum hier viele Male schrieb das gleiche.

So sieht es aus...

Ich kopiere meine Überlegungen/Vorschläge zu diesem Thema aus einem anderen Thema:

Das scheint mir ein wenig zu viel Feedback für die Schätzung des Modells zu sein, deshalb habe ich mich gefragt, warum Sie nur für diesen Teil eine Auswahl treffen.
Ja, es funktioniert in einem bestimmten Fall (Sie haben in allen Segmenten gute Ergebnisse erzielt), aber ich habe den Eindruck, dass es nicht universell ist.

Schließlich könnten Sie auf Daten stoßen, die nicht so gut sind. Das Modell könnte beispielsweise auf 40 % Fehler im Trainingsdiagramm trainiert werden und dann zufällig 30 % Fehler im Testdiagramm aufweisen. Aber nehmen wir an, das zweite Modell hat in beiden Abschnitten bis zu 35 % gelernt. Das zweite Modell ist offensichtlich besser. Wenn Sie jedoch nur die Testfläche auswählen, wird die erste Fläche ausgewählt. Zum Vergleich gibt es Optionen für die Bewertung des Modells:
Auswertung nur auf der Trainingsfläche,
oder auf der Summe aller Parzellen,
oder wie in Darch (bei vorgelegten Validierungsdaten) durch Err = (ErrLeran * 0,37 + ErrValid * 0,63) - diese Koeffizienten sind Standardwerte, können aber geändert werden.

Die letzte Option ist die interessanteste, da sie beide Fehler berücksichtigt, allerdings mit einer starken Gewichtung des Validierungsdiagramms.
Sie können die Formel z. B. auf Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4) erweitern.

Vielleicht sollten wir sogar eine Auswahl nach Delta-Fehlern treffen, z. B. wenn ErrLeran und ErrTest um mehr als 5 % voneinander abweichen, dann werden wir dieses Modell ablehnen (San Sanich hat darüber gesprochen). Und vom Rest eine Auswahl zu treffen.
 
elibrarius:
So sieht es aus...

Ich kopiere meine Überlegungen/Vorschläge zu diesem Thema aus einem anderen Thema:

Ich habe den Eindruck, dass es nicht genug OOS gibt, um das Modell zu bewerten, deshalb habe ich mich gefragt, warum Sie nur nach diesem Abschnitt auswählen.
Ja, es funktioniert in einem bestimmten Fall (Sie haben in allen Segmenten gute Ergebnisse erzielt), aber ich habe den Eindruck, dass es nicht universell ist.

Schließlich könnten Sie auf Daten stoßen, die nicht so gut sind. Das Modell könnte beispielsweise auf 40 % Fehler im Trainingsdiagramm trainiert werden und dann zufällig 30 % Fehler im Testdiagramm aufweisen. Aber nehmen wir an, das zweite Modell hat in beiden Abschnitten bis zu 35 % gelernt. Das zweite Modell ist offensichtlich besser. Wenn Sie jedoch nur die Testfläche auswählen, wird die erste Fläche ausgewählt. Zum Vergleich gibt es Optionen für die Bewertung des Modells:
Auswertung nur auf der Trainingsfläche,
oder auf der Summe aller Parzellen,
oder wie in Darch (bei vorgelegten Validierungsdaten) durch Err = (ErrLeran * 0,37 + ErrValid * 0,63) - diese Koeffizienten sind Standardwerte, können aber geändert werden.

Die letzte Option ist die interessanteste, da sie beide Fehler berücksichtigt, allerdings mit einer starken Gewichtung des Validierungsdiagramms.
Im Prinzip können Sie die Formel z. B. auf Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4) erweitern.

Vielleicht sollten wir sogar eine Auswahl nach Delta-Fehlern treffen, z. B. wenn ErrLeran und ErrTest um mehr als 5 % voneinander abweichen - dann sollten wir ein solches Modell ablehnen (San Sanich hat darüber gesprochen). Und eine Auswahl unter den anderen zu treffen.
IMHO brauchen wir, abgesehen von den Formeln zum Aufsummieren der Fehler, mehr Proportionen ihres Verhältnisses, es scheint, dass jemand hier geschrieben hat, dass die Fehler nach Abschnitten als Train <= Valid <= Test korrelieren sollten.
 
Iwan Negreshniy:
IMHO brauchen wir neben den Formeln für die Fehlersummierung mehr Proportionen ihres Verhältnisses. Es scheint, dass jemand hier geschrieben hat, dass Fehler nach Abschnitten als Train <= Valid <= Test korrelieren sollten.
Zug durch Trainingsfehler minimiert wird, können andere Bereiche zufällig sowohl nach oben als auch nach unten wackeln. Das Wichtigste ist, dass es nicht zu sehr wackelt.
 
elibrarius:
Zug wird durch Trainingsfehler minimiert, die anderen Abschnitte können willkürlich baumeln, entweder nach oben oder nach unten. Die Hauptsache ist, dass man nicht zu sehr baumelt.

Und wie begründen Sie selbst die Zulässigkeit von Abweichungen nach unten, die nicht rein zufällig sind?

Und was ist dann Ihre Hauptaufgabe, wenn nicht die Bekämpfung dieser Zufälligkeit, denn sie negiert den Sinn sowohl der Validierung als auch von OOS und MO im Allgemeinen).