Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1839

 
mytarmailS:

Ahahahaha )))) LOL !!!

Schlampe ist so die Worte des Tricksters. Hase zu plogiarize!!!! Mit Ungeduld auf ihn warten....
 

Ich hätte gerne einen Rat von Ihnen allen.
Im Darch-Paket habe ich die folgende Option der Modellauswertung gefunden:
Wir berechnen den Fehler auf der Strecke und auf den Oob-Abschnitten.
Dann wird der Gesamtfehler berechnet als
err = oob_error * comb_err_tr + train_err * (1 - comb_err_tr);

wobei comb_err_tr = 0,62. Der Multiplikator, der den Beitrag der Fehler aus den Zug- und Oob-Abschnitten kontrolliert. Wenn er auf 0 gesetzt ist, erfolgt die Schätzung nur durch den Zug. Wenn Sie diesen Wert auf 1 setzen, gilt die Schätzung nur für oob.

0,62 bedeutet, dass der oob-Fehler bei der Gesamtmodellschätzung etwas mehr Gewicht hat.

Ich habe diese Formel eine Zeit lang verwendet, aber jetzt habe ich Zweifel.

Der Fehler bei oob hat in der Regel einen Grenzwert, und bei Zugfahrten mit Übertraining kann er bis auf 0 sinken.
Ungefähr so: (grün ist der geschätzte Fehler nach der Formel)




Nach dieser Formel wird der Fehler mit abnehmendem trn-Fehler immer kleiner. Und er wird erst aufhören zu fallen, wenn trn nicht mehr abnimmt. Wenn das Übertraining begonnen hat, nimmt gleichzeitig der Fehler bei oob zu.
Meiner Meinung nach ist es zu spät, mit dem Lernen aufzuhören, wenn err by formula zu wachsen beginnt.
Auch der Punkt, an dem der Oob-Fehler minimal ist, ist nicht optimal. Aufgrund eines glücklichen Zufalls finden wir das Minimum zufällig bei oob, aber es kann auch an einer Optimierung von oob liegen.
Vielleicht sollten wir den minimalen Fehler bei oob nehmen und ihn als Grenzwert für den Fehler bei train zählen? D.h. das Training des Modells beenden, wenn der Fehler bei trn gleich dem besten Fehler bei oob ist (wo ich die vertikale Linie gezogen habe)? Der Fehler bei oob wird schlimmer sein, aber es wird weder für train noch für oob passen.

 
elibrarius:

Ich hätte gerne einen Rat von Ihnen allen.
Im Darch-Paket habe ich die folgende Option der Modellauswertung gefunden:
Wir berechnen den Fehler auf der Strecke und auf den Oob-Abschnitten.
Dann wird der Gesamtfehler berechnet als
err = oob_error * comb_err_tr + train_err * (1 - comb_err_tr);

wobei comb_err_tr = 0,62. Der Multiplikator, der den Beitrag der Fehler aus den Zug- und Oob-Abschnitten kontrolliert. Wenn er auf 0 gesetzt ist, erfolgt die Schätzung nur durch den Zug. Wenn Sie diesen Wert auf 1 setzen, gilt die Schätzung nur für oob.

0,62 bedeutet, dass der oob-Fehler bei der Gesamtmodellschätzung etwas mehr Gewicht hat.

Ich habe diese Formel eine Zeit lang verwendet, aber jetzt habe ich Zweifel.

Der Fehler bei oob hat in der Regel einen Grenzwert, und bei Zugfahrten mit Übertraining kann er bis auf 0 sinken.
Ungefähr so: (grün ist der geschätzte Fehler nach der Formel)




Nach dieser Formel wird der Fehler mit abnehmendem trn-Fehler immer kleiner. Und er wird erst aufhören zu fallen, wenn trn nicht mehr abnimmt. Wenn die Umschulung begonnen hat, wird der Fehler bei oob ansteigen.
Meiner Meinung nach ist es zu spät, mit dem Lernen aufzuhören, wenn err by formula zu wachsen beginnt.
Auch der Punkt, an dem der Oob-Fehler minimal ist, ist nicht optimal. Aufgrund eines glücklichen Zufalls finden wir das Minimum zufällig bei oob, aber es kann auch an einer Optimierung von oob liegen.
Vielleicht sollten wir den minimalen Fehler bei oob nehmen und ihn als Grenzwert für den Fehler bei train zählen? D.h. das Training des Modells beenden, wenn der Fehler bei trn gleich dem besten Fehler bei oob ist (wo ich die vertikale Linie gezogen habe)? Der Fehler auf der oob wird schlimmer sein, aber es wird weder für den Zug noch für die oob passen.

Das hat eine gewisse Logik. Die Fehlermarge wird durch ein probabilistisches Modell bestimmt, und sowohl ein angemessener Stichprobenumfang als auch die Anzahl der Nachschulungen haben eine optimale Größe, deren Erhöhung das Ergebnis nicht verbessert

 
mytarmailS:

Ein Handelssystem mit den Augen eines Algotraders

R - Du bist einfach apuenen! :)

Was ist mit den digitalen Filtern oder Pegeln? :D

 
Maxim Dmitrievsky:

Zeigen die digitalen Filter oder Pegel etwas Interessantes? :D

Als Letztes habe ich nach einer Musterüberlagerung gesucht ...

Wir haben ein Niveau - wenn der Preis es überschreitet, fixieren wir dieses Muster und legen es als Trainingsmuster fest

Muster können unterschiedlich sein

Ich suche nach einem Muster, das sich im Moment herauskristallisiert hat, nach einer bestimmten Menge, die etwas löst.


Um Regeln für Muster zu finden, verwende ich"assoziative Regeln". Dieser Ansatz unterscheidet sich von den üblichen durch die Tatsache, dass jedes Trainingsbeispiel eine beliebige Anzahl von Elementen enthalten kann und die Ordnungsmäßigkeit von Merkmalen nicht berücksichtigt wird.


das Ziel - einen Extremwert zu finden, von dem aus ein Anstieg um 10 Punkte zu verzeichnen ist

 x[i]==min(x[(i-1):(i+10)])

nicht die beste Lösung, aber genau darüber schreibe ich, bisher nur kaufen


der "apriori"-Algorithmus aus dem "arules"-Paket


So sehen die gefundenen Regeln aus

inspect(head(rules.sorted,20)) 
     lhs                              rhs   support     confidence lift     count
[1]  {(28)(28)(-1);1,(44)(45)(-1)} => {BUY} 0.001017018 0.5769231  3.046559 15   
[2]  {(25)(23)(-1);1,(5)(3)(-1)}   => {BUY} 0.001084819 0.5517241  2.913491 16   
[3]  {(31)(33)(-1),(8)(6)(-1)}     => {BUY} 0.001084819 0.5000000  2.640351 16   
[4]  {(49)(45)(-1),(54)(52)(-1)}   => {BUY} 0.001017018 0.5000000  2.640351 15   
[5]  {(25)(23)(-1),(82)(84)(-1)}   => {BUY} 0.001017018 0.4838710  2.555178 15   
[6]  {(46)(48)(-1),(56)(56)(-1)}   => {BUY} 0.001017018 0.4838710  2.555178 15   
[7]  {(25)(23)(-1);1,(40)(41)(-1)} => {BUY} 0.001017018 0.4838710  2.555178 15   
[8]  {(29)(30)(-1),(37)(39)(-1)}   => {BUY} 0.001017018 0.4838710  2.555178 15   
[9]  {(34)(32)(-1),(76)(74)(-1)}   => {BUY} 0.001898434 0.4745763  2.506096 28   
[10] {(25)(22)(-1),(7)(6)(-1);3}   => {BUY} 0.001152621 0.4722222  2.493665 17   
[11] {(17)(16)(-1);1,(49)(45)(-1)} => {BUY} 0.001017018 0.4687500  2.475329 15   
[12] {(46)(48)(-1),(62)(60)(-1)}   => {BUY} 0.001017018 0.4687500  2.475329 15   
[13] {(20)(21)(-1),(45)(46)(-1)}   => {BUY} 0.001017018 0.4687500  2.475329 15   
[14] {(19)(18)(-1);1,(60)(57)(-1)} => {BUY} 0.001220422 0.4615385  2.437247 18   
[15] {(25)(23)(-1);1,(47)(45)(-1)} => {BUY} 0.001152621 0.4594595  2.426268 17   
[16] {(40)(41)(-1),(71)(71)(-1)}   => {BUY} 0.001152621 0.4594595  2.426268 17   
[17] {(2)(1)(-1);4,(6)(6)(-1)}     => {BUY} 0.001084819 0.4571429  2.414035 16 


Hier ist Regel "1" (die beste) in Aktion mit den neuen Daten

ohne jegliche Manipulation, so wie sie ist, in der Reihenfolge wie sie ist...

entscheiden Sie selbst, ob dieses Thema für Sie interessant ist oder nicht

Fortführung desselben


Dann ist es möglich, AMO zu diesen Eingängen wie "on top" hinzuzufügen, um den Eingang/Ausgang zu filtern.

Es gibt ein grenzenloses Potenzial zur Steigerung der Quantität und Qualität von Mustern

Vielleicht kommt ja etwas Cooles dabei heraus, aber ich habe keine Energie und keine Sicherung, ich bin auf einen kreativen Saufrausch gegangen ((



Ich denke, die Ebenen sind das vielversprechendste Werkzeug zur Erstellung von TS...

Das Preisniveau ist nach meinem Verständnis kein dummes Fraktal nach Bill Williams, sondern ein Ereignis zu einem bestimmten Preis, höchstwahrscheinlich ein "Multi-Trend".

 
mytarmailS:

Dann können Sie AMO zu diesen Eingängen hinzufügen, um zu filtern, ob sie eingegeben oder nicht eingegeben werden sollen.

Es gibt ein grenzenloses Potenzial zur Steigerung der Quantität und Qualität von Mustern

Vielleicht kommt ja etwas Cooles dabei heraus, aber ich habe weder Energie noch Kraft, ich bin auf einem kreativen Saufgelage ((

Wenn ich genug Energie habe, werde ich lesen).

 
Maxim Dmitrievsky:

Ich werde es lesen, wenn ich den Dreh raus habe.)

Googeln Sie etwas Kürzeres, da gibt es nicht viel zu lesen.

 
Oh, wie abgefuckt... Leute trinken nicht, trinken nie, nie, nie....
 
mytarmailS:
Oh, wie abgefuckt... Menschen saufen nicht, nie saufen, nie, nie....
Ich weiß, was Sie meinen. Ich bin auch schon den zweiten Tag auf dem Rebound :-)
 

Ich sehe, dass Sie versuchen, ein Muster zu finden. Es ist so einfach wie ein Dutzend andere) Es ist die Wellentheorie. Sie ist jedoch derzeit nicht öffentlich zugänglich.

Stellen Sie sich vor, Sie sind seit 22 Jahren verheiratet. Wie wahrscheinlich ist es, dass Sie sich heute oder morgen scheiden lassen werden? Bringen Sie dem maschinellen Lernen dieses Verständnis bei und gehen Sie erst dann zu den einfacheren Fragen über - den Finanzmärkten.

Ich merke, dass es mir schwer fällt, mich dem Thema zu nähern.

Aus Respekt vor Yusufs Worten. Er hat die Kontinuität von Geschichte und Gegenwart immer richtig eingeschätzt. Und die Bedeutung für die Zukunft.