Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 949

 
SanSanych Fomenko:

Welcher andere Trend in der Klassifizierung? Klassenvorhersagefehler werden den Trend zerreißen - vom Trend wird nichts mehr übrig sein.

Warum nicht, ich ermittle nur die Inputs, die Outputs werden durch Schleppnetze und nicht durch MO-Ergebnisse ermittelt.

 
SanSanych Fomenko:

Natürlich, verdammt noch mal!

Welche anderen?

Ich werde sie zählen.

Ich warte mit Interesse!

 
Aleksey Vyazmikin:

Ich warte mit Interesse!

Hier.

Number of observations used to build the model: 20276
Missing value imputation is active.

Call:
 randomForest(formula = as.factor(arr_Buy) ~ .,
              data = crs$dataset[crs$sample, c(crs$input, crs$target)],
              ntree = 500, mtry = 7, importance = TRUE, replace = FALSE, na.action = randomForest::na.roughfix)

               Type of random forest: classification
                     Number of trees: 500
No. of variables tried at each split: 7

        OOB estimate of  error rate: 17.76%
Confusion matrix:
     -1    0    1 class.error
-1 4429 1157   84   0.2188713
0   498 8288  501   0.1075697
1   102 1259 3958   0.2558752

Variable Importance
===================

                                -1     0     1 MeanDecreaseAccuracy MeanDecreaseGini
arr_LastBarPeresekD_Down_M15 56.11 64.27 64.49                69.56           211.39
arr_DonProc_M15              60.79 63.68 57.48                67.77           298.46
Levl_High_H4                 59.69 61.76 57.36                69.74           195.16
Levl_Close_W1                54.44 58.90 57.08                64.35           234.41
arr_Regresor                 56.51 55.71 56.09                61.40           212.89
Levl_Low_H4                  50.14 52.47 55.56                57.38           203.09
Levl_Low_D1                  51.00 50.52 55.24                57.91           192.80
arr_Den_Nedeli               47.86 50.18 55.22                53.55           214.23
arr_DonProcVisota            53.91 58.53 55.15                58.61           305.84
Levl_Close_MN1               51.68 51.71 54.70                58.12           228.30
Levl_Close_D1                53.13 51.06 51.83                57.80           267.86
arr_LastBarPeresekD_Up_M15   52.46 52.45 49.94                56.53           218.22
arr_DonProc                  47.96 69.45 49.35                60.33           322.91
Levl_Support_D1              52.28 52.42 49.21                56.50           253.82
Levl_Support_W1              47.90 50.98 47.38                53.37           219.35
Levl_High_W1                 48.68 47.64 47.35                52.45           144.54
Levl_Low_H1                  46.62 53.94 46.72                54.10           208.75
Levl_Support_MN1             41.67 44.57 46.52                46.83           198.77
arr_TimeH                    44.65 46.73 45.21                47.78           183.06
Levl_High_D1                 43.69 42.56 45.17                46.79           169.77
Levl_first_H4                41.65 44.09 43.92                46.57           121.20
Levl_High_MN1                37.88 40.27 42.96                42.52           142.87
X_USE_Filter_MA_02           38.67 43.46 42.57                49.19            84.23
Levl_first_H1                38.36 40.30 40.51                44.00           135.97
Levl_Low_MN1                 36.20 39.33 39.59                40.68           149.38
Levl_High_H1                 36.34 39.67 39.02                40.28           196.14
arr_LastBarPeresekD_Down     40.51 39.81 37.87                43.21           232.92
Levl_first_D1                33.94 36.19 36.47                38.99            78.20
Levl_first_MN1               30.33 33.31 35.62                34.03            99.66
arr_LastBarPeresekD_Up       32.66 40.83 35.21                38.65           238.36
Levl_Low_W1                  33.29 34.25 35.02                35.13           175.21
X_Use_Donchianf              31.06 34.26 33.54                36.21            97.49
Levl_Support_H4              33.55 38.03 33.15                36.91           248.48
Use_Filter_MA_Prirost        31.89 31.93 31.42                38.92            63.63
Levl_Close_H1                32.25 34.31 31.06                34.08           242.26
X_Use_Filter_Fibo_in_Day     29.56 30.80 30.99                36.89            71.70
Levl_Close_H4                34.27 33.26 30.79                34.17           272.58
X_USE_Filter_MA              25.90 31.13 29.25                33.87            66.11
X_Use_BarPeresek_iMA_TF      26.07 23.12 28.88                32.17            31.87
Levl_first_W1                26.50 28.50 27.21                28.70            83.33
arr_Vektor_Week              25.93 25.76 26.68                29.62            44.61
arr_Vektor_Don_M15           29.11 28.28 26.27                31.15            53.36
arr_RSI_Open_H1              30.82 29.38 25.75                36.56            45.64
Levl_Support_H1              26.88 27.87 25.56                27.72           215.06
arr_Vektor_Day               22.67 24.33 24.70                26.31            43.21
arr_Vektor_Don               23.32 25.04 21.89                25.40            65.35
arr_BB_Up                    10.94 11.71 16.86                15.05            21.55
arr_BB_Center                16.63 17.40 16.01                17.13            58.55
X_Use_ChanelEvaProc          13.36 17.13 12.74                23.63           106.51
arr_RSI_Open_M1               8.95 11.16 12.15                13.34            33.44
arr_BB_Down                  13.49 13.31  6.84                13.36            24.11
USE_Filter_MA_Donchian        3.60 -1.85  5.00                 3.82             2.32


Die erforderliche Anzahl von Bäumen ist gestiegen, allerdings nicht um 100


Es zählt falsch: sollte nach Spalten gezählt werden, schlechter als vorher, aber immer noch sehr anständig

 
Fehlermatrix für das Random-Forest-Modell auf Pred_027_2016_H2_T.csv [validate] (Anzahl):

Vorhersage
Tatsächlicher Wert -1 0 1 Fehler
-1 20157 5167 292 21.3
0 2222 37861 2060 10.2
1 373 5502 17608 25.0

Fehlermatrix für das Random-Forest-Modell auf Pred_027_2016_H2_T.csv [validieren] (Proportionen):

Vorhersage
Tatsächlicher Wert -1 0 1 Fehler
-1 22.1 5.7 0.3 21.3
0 2.4 41.5 2.3 10.2
1 0.4 6.0 19.3 25.0

Gesamtfehler: 17,1%, durchschnittlicher Klassenfehler: 18,83333%.


Fehlermatrix für das Random-Forest-Modell auf Pred_027_2016_H2_T.csv [test] (Anzahl):


Vorhersage

Tatsächlicher Wert -1 0 1 Fehler

-1 19963 5131 328 21.5

0 2259 37753 2104 10.4

1 404 5703 17597 25.8


Fehlermatrix für das Random Forest Modell auf Pred_027_2016_H2_T.csv [test] (Proportionen):


Vorhersage

Tatsächlicher Wert -1 0 1 Fehler

-1 21.9 5.6 0.4 21.5

0 2.5 41.4 2.3 10.4

1 0.4 6.3 19.3 25.8


Gesamtfehler: 17,4%, durchschnittlicher Klassenfehler: 19,23333%.


Die bemerkenswerte Stabilität des Fehlers ist sehr ermutigend.

 
SanSanych Fomenko:

Hier.


Die erforderliche Anzahl von Bäumen ist gestiegen, allerdings nicht um 100


Der Fehler ist, dass nicht richtig gezählt wird: man muss spaltenweise zählen, schlechter als vorher, aber immer noch sehr anständig

Ich danke Ihnen! Die Menge der Prädiktoren ist also gar nicht so schlecht, und es gibt einen Grund, sie zu erweitern!


SanSanych Fomenko:

Die erstaunliche Stabilität des Fehlers ist sehr ermutigend.

Oder ist die Stichprobe vielleicht nur sehr typisch? Ich denke, dass wir irgendwie auf eine Datei aus dem Jahr 2015 trainiert und auf 2016 getestet werden sollten - es gibt globale Trends in die entgegengesetzte Richtung, ich denke, das System wird dort nicht so effektiv arbeiten können.

Ich wünschte, ich wüsste, wie man es anders machen könnte... Ich frage mich, ob das Gerüst im Maxim's und hier in Bezug auf die Logik der Bildung gleich ist oder nicht?

 
Aleksey Vyazmikin:

Ich danke Ihnen! Die Menge der Prädiktoren ist also gar nicht so schlecht, und es ist sinnvoll, sie zu erweitern!


Oder ist die Stichprobe vielleicht nur sehr typisch? Ich denke, dass wir irgendwie mit einer Datei aus dem Jahr 2015 trainieren sollten und 2016 überprüfen sollten - es gibt globale Trends in die entgegengesetzte Richtung, ich denke, das System wird dort nicht so effektiv arbeiten können.

Ich wünschte, ich wüsste, wie man es anders machen könnte... Ich frage mich, ob Maxim's Gerüst und hier die gleiche Formationslogik haben oder nicht?

Ich habe es oben geschrieben und wiederhole es hier:

  • Überprüfung der Vorhersagekraft
  • geteilte Datei und sehen Sie den Fehler in der zweiten Hälfte.


PS.

Die Prädiktoren sind bereits im Übermaß vorhanden.

 
SanSanych Fomenko:

Ich habe es oben geschrieben und werde es wiederholen:

  • Überprüfung der Vorhersagefähigkeit
  • Teilen Sie die Datei und sehen Sie sich den Fehler in der anderen Hälfte an.

Warum eine Datei aufteilen, wenn alles bereits in zwei Dateien aufgeteilt ist? Ich weiß nur nicht, wie man das in R macht, niemand hat es mir je erklären können - anscheinend dumm.

SanSanych Fomenko:

PS.

Ich habe ohnehin schon eine Menge Vorhersagen.

Nicht wirklich, das ist nicht alles, was ich im realen Handel verwende, einschließlich der Verwendung von ATS.

Ich hoffe wirklich, dass das Netzwerk den optimierten EA in der Geschichte übertreffen kann :)

 

Wo hast du so viele Farther aufgesammelt? hast du sie manuell ausgewählt, damit sie zur Strategie passen? verrückt :)

die Logik des Gerüsts sollte +- die gleiche sein

 

Aber hier ist ein anderes Modell:

Error matrix for the SVM model on Pred_027_2016_H2_T.csv [validate] (counts):

      Predicted
Actual   -1     0    1 Error
    -1 6176 18666  774  75.9
    0  2242 38585 1316   8.4
    1  1333 17683 4467  81.0

Error matrix for the SVM model on Pred_027_2016_H2_T.csv [validate] (proportions):

      Predicted
Actual  -1    0   1 Error
    -1 6.8 20.5 0.8  75.9
    0  2.5 42.3 1.4   8.4
    1  1.5 19.4 4.9  81.0

Overall error: 46%, Averaged class error: 55.1

Das Ergebnis ist, dass ALLES andere, obwohl das Modell qualitativ anders ist, bei Ihren Daten schlecht funktionieren sollte.


Wir müssen den randomForest auf Vordermann bringen

 
Aleksey Vyazmikin:


Ich hoffe wirklich, dass das Netzwerk den optimierten EA in der Geschichte übertreffen kann :)

Warum eine Datei aufteilen, wenn bereits alles in zwei Dateien aufgeteilt ist? Ich weiß einfach nicht, wie man das in R macht, niemand hat es mir je erklären können, ich bin wohl dumm.

Das Teilen ist ein Kinderspiel, das Problem sind die Vorurteile gegen R.


Ich hoffe sehr, dass das Netzwerk in der Lage sein wird, einen optimierten Expert Advisor in der Geschichte zu übertreffen :)

Wozu braucht man das Netz?