Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3152
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
du kannst chatgpt um die Dekodierung von Formeln bitten, wenn du irgendwelche Symbole nicht verstehst.
Y|T = 1 Ergebnisse der Testgruppe (mit Tritment)
Y|T = 0 - Kontrollgruppe (ohne)
Y - Klassenbezeichnung, Y0,Y1 - Klassenbezeichnungen ohne und mit dem Tritment
T - in das Modell eingegebenes Tritment (einschließlich Prädiktor) oder nicht eingegebenes Tritment (1;0)
E - Erwartung
Aufteilung an einem beliebigen Punkt, wenn Sie durch Test und Training dividieren
Wenn Sie nicht mischen, erhalten Sie eine verzerrte Schätzung von ATE+Bias
ATE ist der durchschnittliche Behandlungseffekt der Exposition
sleepy, ich habe vielleicht die Buchstaben verwechselt, aber die Logik sollte klar sein.
Ich verstehe immer noch nicht die Idee, an irgendeinem Punkt der Stichprobe zu teilen. Schließlich geht es meiner Meinung nach darum, genau den Punkt zu finden, an dem sich die Wirkung des Faktors verändert hat. Vielleicht ist es notwendig, verschiedene Teile der Stichprobe zu durchlaufen und die Genetik zu nutzen, um den Teil zu finden, der durch den Prädiktor neu beeinflusst wurde?
Vorhin haben Sie andere beschuldigt, nicht die Wahrheit zu sagen, aber Sie selbst machen nicht deutlich, welche Bedeutung diese Aktionen Ihrer Meinung nach für den Handel haben.
Ich habe noch nichts zu diesem Thema getestet, da es schwierig ist, dies in MQL5 zu automatisieren.
Leute, können wir sagen, dass MO ein Spezialfall der Optimierung ist?
Ich denke schon.
Ich weiß nicht einmal, über welchen Code wir reden.
Ich verstehe immer noch nicht die Idee, an irgendeinem Punkt der Stichprobe zu teilen. Meiner Meinung nach geht es darum, den Zeitpunkt zu finden, an dem sich der Einfluss eines Faktors geändert hat. Vielleicht sollten wir eine Schleife durch verschiedene Teile der Stichprobe ziehen und die Genetik nutzen, um den Teil zu finden, der vom Prädiktor auf neue Weise beeinflusst wurde?
Vorhin haben Sie andere beschuldigt, nicht die Wahrheit zu sagen, aber Sie selbst machen nicht deutlich, welche Bedeutung diese Aktionen Ihrer Meinung nach für den Handel haben.
Ich habe noch nichts zu diesem Thema getestet, da es schwierig ist, dies in MQL5 zu automatisieren.
:)
Du hast genau das gleiche Buch vor dir wie ich. So wie ich es sehe, hast du es auch geschrieben. Frag mordorator, ob er eine Zusammenfassung macht, wenn du es verloren hast.gesperrt, 12 Stunden später wieder freigegeben und dann wieder gesperrt.
Was war das?
gesperrt, 12 Stunden später wieder freigegeben, erneut gesperrt.
Was war das?
Ein Monat ist in Ordnung, lass es weiterlaufen, neues Konto.
Ich bin auf das Preprocessing-Paket für Rezepte von R gestoßen . Beeindruckende Liste von Vorverarbeitungsschritten aus diesem Paket:
#> [ 1] "step_BoxCox" " step_YeoJohnson "
#> [ 3] "step_arrange" " step_bagimpute "
#> [ 5] "step_bin2factor" " step_bs "
#> [ 7] "step_center" " step_classdist "
#> [ 9] "schritt_corr " " step_count "
#> [11] "schritt_schnitt " " step_date "
#> [13] "schritt_tiefe" " schritt_diskretisieren "
#> [15] "schritt_dummy" " schritt_dummy_extrahieren "
#> [17] "schritt_dummy_multi_choice" "schritt_factor2string "
#> [19] "schritt_filter" " schritt_filter_fehlend "
#> [21] "schritt_geodist" " schritt_harmonisch "
#> [23] "step_holiday" " step_hyperbolic "
#> [25] "step_ica" " step_impute_bag "
#> [27] "step_impute_knn" " step_impute_linear "
#> [29] "step_impute_lower" " step_impute_mean "
#> [31] "step_impute_median" " step_impute_mode "
#> [33] "schritt_imput_rolle" " schritt_anzeige_na "
#> [35] "schritt_ganzzahl" " schritt_interaktion "
#> [37] "step_intercept" " step_inverse "
#> [39] "schritt_invlogit" " schritt_isomap "
#> [41] "schritt_knnimpute" " schritt_kpca "
#> [43] "step_kpca_poly" " step_kpca_rbf "
#> [45] "step_lag" " step_lincomb "
#> [47] "step_log " " step_logit "
#> [49] "step_lowerimpute" " step_meanimpute "
#> [51] "schritt_medianimpute" " schritt_modeimpute "
#> [53] "schritt_mutieren" " schritt_mutieren_at "
#> [55] "step_naomit" " step_nnmf "
#> [57] "step_nnmf_sparse" " step_normalize "
#> [59] "step_novel " " step_ns "
#> [61] "schritt_num2factor" " schritt_nzv "
#> [63] "step_ordinalscore" " step_other "
#> [65] "step_pca" " step_percentile "
#> [67] "step_pls " " step_poly "
#> [69] "step_poly_bernstein" " step_profile "
#> [71] "schritt_bereich" " schritt_ratio "
#> [73] "schritt_regex" " schritt_relevel "
#> [75] "schritt_relu" " schritt_umbenennen "
#> [77] "step_rename_at" " step_rm "
#> [79] "step_rollimpute" " step_sample "
#> [81] "schritt_skalieren" " schritt_auswählen "
> [83] "step_shuffle" " step_slice "
#> [85] "step_spatialsign" " step_spline_b "
#> [87] "step_spline_convex" " step_spline_monotone "
#> [89] "step_spline_natürlich" " step_spline_nonnegativ"
#> [91] "step_sqrt" " step_string2factor "
#> [93] "schritt_zeit" " schritt_unbekannt "
#> [95] "schritt_ungeordnet" " schritt_fenster "
#> [97] "schritt_zv"
Meiner Erfahrung nach ist die Arbeitsintensität der Vorverarbeitung um ein Vielfaches geringer (3 bis 5 Mal) als die Arbeitsintensität der Anwendung des Modells selbst
Das Paket für die Rezepturvorverarbeitung von R gefangen genommen
Hedley Wickham macht keinen Blödsinn
:)
Du hast genau das gleiche Buch vor dir wie ich. So wie ich es sehe, hast du es auch geschrieben. Frag mordorator, ob er eine Zusammenfassung macht, wenn du es verloren hast.Ich sehe, statt Diskussion und Erfahrungsaustausch verfallen wir wieder in irgendwelche emotionalen Reaktionen.
Du hast den zweiten Beitrag gelöscht - ich wollte sagen, dass ich keinen Zusammenhang mit dem von dir angegebenen Link sehe. Dort im Artikel ist es seltsam, dass der Autor nicht die Standard-CB-Funktionen zum Ausgleich der Stichprobe ausprobiert hat. Und Schlussfolgerungen können nicht nur aus den Ergebnissen eines Tests an einem Datensatz gezogen werden.Ich sehe, anstatt zu diskutieren und Erfahrungen auszutauschen, verfallen wir wieder in irgendwelche emotionalen Reaktionen.
Sie haben den zweiten Beitrag gelöscht - ich wollte sagen, dass ich keinen Zusammenhang mit dem von Ihnen angegebenen Link sehe. Dort im Artikel ist es seltsam, dass der Autor nicht die Standard-CB-Funktionen zum Ausgleich der Stichprobe ausprobiert hat. Und man kann nicht nur aus den Ergebnissen eines Tests an einem Datensatz Schlussfolgerungen ziehen..