Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3061

 
Aleksey Vyazmikin #:

Vielleicht habe ich den Zweck von all dem nicht verstanden.... Aber ich hatte den Eindruck, dass das Ziel darin besteht, den Einfluss eines neuen Faktors oder eines Ausreißers des vergangenen Wertes des Prädiktors auf den Indikator (Preis oder etwas anderes - in den Beispielen geht es meist um Regression) zu erkennen. Dann sollte die Aufgabe darin bestehen, diese Ausreißer zu erkennen, wenn die Chronologie der Ereignisse unverändert bleibt (man kann keine Stichprobenlinien für Zeitreihen randomisieren). Und es stellt sich heraus, dass es sich um ein seltenes Ereignis oder eine einmalige Änderung handelt. Dann genügt es, die Veränderungen in der Verteilung des Prädiktorindexes über ein festes Zeitfenster zu betrachten. Die Prädiktoren, die eine solche Änderung aufweisen, sind die Ursache (oder vielleicht auch nicht - hier habe ich nicht verstanden, wie man die Ursache oder Wirkung bestimmt), und wenn diese Änderungen an verschiedenen Stellen des Tests häufiger zu dem Effekt "das Modell funktioniert nicht" führen, dann müssen wir das Modell mit diesen Prädiktoren sorgfältiger arbeiten lassen....

Prädiktoren und Tritment sind zwei verschiedene Dinge. Die Kausalanalyse arbeitet mit Ergebnissen, um den ATE (durchschnittlicher Behandlungseffekt) zu bestimmen, wenn keine Merkmale beteiligt sind, oder den CATE (bedingter ... ...), wenn es Kovariaten (Merkmale) gibt, wobei ein externer Einfluss (z. B. eine Werbekampagne, die das Tritment darstellt) berücksichtigt wird. Damit soll festgestellt werden, ob es einen Effekt auf die Kontrollgruppe gab. Angesichts dieses Effekts können Sie dann Ihr Modell oder eine Metrik analysieren und verbessern.

... Sie sind derjenige, der versucht, herauszufinden, wie man etwas anwendet, von dem Sie nicht wissen, wie man es anwendet.

Nehmen Sie an einem kostenlosen kurzen Einführungskurs teil

 
Maxim Dmitrievsky #:

Prädiktoren und Tritment sind unterschiedlich. Die Kausalanalyse arbeitet mit Ergebnissen, um den ATE (durchschnittlicher Behandlungseffekt) zu bestimmen, wenn keine Merkmale beteiligt sind, oder den CATE (bedingter ... ...), wenn Kovariaten (Merkmale) vorhanden sind, wobei ein äußerer Einfluss berücksichtigt wird (z. B. eine Werbekampagne, die das Tritment darstellt). Damit soll festgestellt werden, ob es einen Effekt auf die Kontrollgruppe gab. Anhand dieses Effekts können Sie dann Ihr Modell oder eine Metrik analysieren und verbessern.

... Sie sind derjenige, der versucht, herauszufinden, wie man etwas anwendet, von dem Sie nicht wissen, wie man es anwendet.

Nehmen Sie an einem kostenlosen kleinen Einführungskurs teil.

Ich habe zwei Artikel von diesen gelesen - sie haben mich auf die Ideen in Verbindung mit dem Video gebracht.

https://habr.com/ru/companies/ru_mts/articles/485980/

https://habr.com/ru/companies/ru_mts/articles/485976/ 

Nun, ich arbeite an einer ähnlichen Aufgabe - deshalb habe ich meine eigene Sicht der Nuancen. Aber ja - die neue Terminologie ist verwirrend.

Wahrscheinlichkeiten von Modellvorhersagen zu subtrahieren - nun, ich glaube nicht, dass das gut ist, besonders wenn man weiß, wie diese Wahrscheinlichkeiten in CB verteilt sind.

Wenn Sie mit Bibliotheken experimentieren wollen, die sich auf diese Themen spezialisiert haben, teilen Sie Ihre Ergebnisse und Ihre Sicht der Dinge mit.

Solange der Grundgedanke ihres Ansatzes nicht verloren geht - das Wichtigste ist die Erfahrung und das Wissen des Analysten über das Thema der Analyse :)

 
Aleksey Vyazmikin #:

Ich habe zwei Artikel von ihnen gelesen - sie waren die Grundlage für die Ideen in Verbindung mit dem Video.

https://habr.com/ru/companies/ru_mts/articles/485980/

https://habr.com/ru/companies/ru_mts/articles/485976/ 

Nun, ich arbeite an einer ähnlichen Aufgabe, daher habe ich meine eigene Meinung zu den Nuancen. Aber ja, die neue Terminologie ist verwirrend.

Wahrscheinlichkeiten von Modellvorhersagen zu subtrahieren - nun, ich glaube nicht, dass das eine gute Idee ist, vor allem, wenn man weiß, wie diese Wahrscheinlichkeiten in CB verteilt sind.

Wenn Sie mit Bibliotheken experimentieren, die sich auf diese Themen spezialisiert haben - teilen Sie Ihre Ergebnisse und Ihre Sicht der Dinge mit.

Solange der Grundgedanke ihres Ansatzes nicht verloren geht - das Wichtigste ist die Erfahrung und das Wissen des Analysten über das Thema der Analyse :)

Toolkit wird angeboten, arbeiten Sie es aus.

wenn Sie zu abstrakt denken, arbeiten alle an einer "ähnlichen Aufgabe" (nur können sie nicht formulieren, an welcher).

 
Maxim Dmitrievsky #:

das Toolkit ist im Angebot, finden Sie es heraus.

Wenn man zu abstrakt denkt, arbeiten alle an einer "ähnlichen Aufgabe" (nur können sie nicht formulieren, an welcher).

Ich habe einen eigenen Thread im Forum, um das Problem zu lösen. Das Ziel ist nur, festzustellen, ob ein neuer Faktor, der die Wahrscheinlichkeitsverteilung des Prädiktors (Quantensegment) beeinflusst, auftaucht oder nicht.

Allerdings habe ich schon lange nicht mehr daran gearbeitet. Genauer gesagt, muss ich die Ideen vom Papier in den Code übertragen.

Es ist schwer für mich, so etwas ohne Grundkenntnisse in Python oder er zu machen. Ich habe überhaupt keine freie Zeit und werde schnell müde. Zwar haben Tabletten ein wenig geholfen - aber ich nehme sie, wenn ich Lust habe....

Автоматический расчет описательных статистик выборки на MQL5 - Определите, похожи ли в целом средние значения событий?
Автоматический расчет описательных статистик выборки на MQL5 - Определите, похожи ли в целом средние значения событий?
  • 2023.03.24
  • www.mql5.com
Код использует два callback-объекта в обучении модели LearningRateScheduler - позволяет динамически изменять скорость обучения модели в зависимости от номера эпохи. За весь период наблюдения поворот направо был осуществлен в 65
 
Aleksey Vyazmikin #:

Ich habe einen separaten Thread im Forum zur Lösung des Problems. Ziel ist es, festzustellen, ob ein neuer Faktor, der die Wahrscheinlichkeitsverteilung des Prädiktors (Quantensegment) beeinflusst, auftritt oder nicht.

Allerdings habe ich schon lange nicht mehr daran gearbeitet. Genauer gesagt, muss ich die Ideen vom Papier in den Code übertragen.

Es ist schwer für mich, so etwas ohne Grundkenntnisse in Python oder er zu bewältigen. Ich habe überhaupt keine freie Zeit und werde schnell müde. Die Tabletten haben zwar ein bisschen geholfen - aber ich nehme sie, wenn ich Lust habe....

Ich muss mir Aufgaben stellen, die ich erledigen kann. Es gibt keine Möglichkeit zu lesen, was da steht. Die Frequenz hat einen Zeitstrahl... zu krass. Dann stieß mein Finger reflexartig auf das Kreuz ❌
 
Maxim Dmitrievsky #:
Sie müssen sich Ihre eigenen Ziele setzen. Es gibt keine Möglichkeit zu lesen, was da steht. Die Frequenz hat eine Zeitskala... zu krass. Dann stieß mein Finger reflexartig auf das Kreuz ❌

Ja, ich habe die Zeitskala genommen, weil sie die einzige Möglichkeit ist, die unabhängigen Messungen in dieser Stichprobe zu standardisieren, und der Anwendungswert nicht verloren geht.

Ich stimme zu, dass das Problem schwierig ist und ich vielleicht nicht die Lösung finde. Ich sehe jedoch, dass dies der Hauptgrund ist, warum Modelle nicht mehr funktionieren - die Verteilung der Wahrscheinlichkeitsverschiebung im Prädiktorenbereich ändert sich mit der Zeit stark. Und hier können wir entweder nach dem Grund suchen, warum dies geschieht - um den Zeitpunkt des Auftretens eines neuen Faktors zu erkennen, oder nach Voraussetzungen für die Variabilität aus der Geschichte des "Lebens" suchen - eine Art Überlebensaufgabe.

Wenn wir Ihren Ansatz mit diesem Wissen betrachten, dann suchen Sie indirekt nach Bereichen in der Trainingsperiode, in denen die Verteilungen für die Prädiktoren, die zu diesem Zeitpunkt signifikant sind, stabil sind, indem Sie andere Bereiche mit einer anderen Verteilung nach bestimmten Kriterien aussortieren. Die Tatsache, dass diese Bereiche in der Stichprobe für verschiedene Prädiktoren unterschiedlich sind, führt jedoch dazu, dass ein sehr großer Stichprobenzeitraum abgeschnitten wird. Versuchen Sie, die Anzahl der Prädiktoren bei jeder Iteration zu reduzieren - dies verringert den Konflikt der Wahrscheinlichkeitsverzerrung zwischen den Prädiktoren und kann somit den Recall erhöhen.

 
Die Frequenz hat keine Zeitachse. Ich arbeite gerade mit Modellfehlern :) dieser Ansatz vor langer Zeit geäußert, wusste nicht, über die Uplift-Technik. Es hat sich herausgestellt, dass ich ungefähr das Gleiche getan habe. Was ist der Sinn, sich diese Verteilungen anzusehen? Visualisierung dessen, was bereits klar ist.
 
Maxim Dmitrievsky #:
Die Frequenz hat keine Zeitachse. Ich arbeite gerade mit Modellfehlern :) dieser Ansatz vor langer Zeit geäußert, wusste nicht, über die Uplift-Technik. Es hat sich herausgestellt, dass ich ungefähr das Gleiche getan habe. Was bringt es, sich diese Verteilungen anzuschauen? Visualisierung von etwas, das bereits klar ist.

Vielleicht verstehe ich den Begriff nicht richtig, wie nennt man sonst die Häufigkeit eines Ereignisses zu einem bestimmten Zeitpunkt?

Ich spreche nicht von Visualisierung... ich spreche davon, wie man mit diesem Problem effektiver umgehen kann.

 
Aleksey Vyazmikin #:

Vielleicht verstehe ich den Begriff falsch, aber wie nennt man sonst die Häufigkeit eines Ereignisses innerhalb eines bestimmten Zeitraums?

Ich spreche nicht von Visualisierung... ich spreche davon, wie man mit diesem Problem effektiver arbeiten kann.

Das steht alles in diesem Thread, den Rest können Sie googeln. Ich habe ein Buch über kausale Zusammenhänge eingeworfen.

Genau, durch die vielen Begriffe, die nicht zum Thema gehören, geht die Bedeutung dessen, was passiert, verloren. Obwohl die Aufgabe selbst sehr einfach sein kann.
 

Ich weiß nicht, was Sie an diesem Thema interessiert. Für R-Benutzer gibt es hier eine Reihe von Paketen zu diesem Thema. Könnte helfen, es zu verstehen oder zu benutzen. R 4.2.3/4.3.0

other attached packages:
 [1] regmedint_1.0.0               PSweight_1.1.8                MatchIt_4.5.3                
 [4] InvariantCausalPrediction_0.8 mboost_2.9-7                  stabs_0.6-4                  
 [7] glmnet_4.1-7                  Matrix_1.5-4                  grangers_0.1.0               
[10] dagitty_0.3-1                 CompareCausalNetworks_0.2.6.2 CERFIT_0.1.0                 
[13] causalweight_1.0.4            ranger_0.15.1                 causalsens_0.1.2             
[16] CausalQueries_0.1.0           Rcpp_1.0.10                   dplyr_1.1.2                  
[19] causalPAF_1.2.5               causaloptim_0.9.7             igraph_1.4.2                 
[22] CausalMBSTS_0.1.1             KFAS_1.5.0                    CausalKinetiX_0.2.1          
[25] CausalImpact_1.3.0            bsts_0.9.9                    xts_0.13.1                   
[28] zoo_1.8-12                    BoomSpikeSlab_1.2.5           Boom_0.9.11                  
[31] CausalGAM_0.1-4               gam_1.22-2                    foreach_1.5.2                
[34] causaleffect_1.3.15           causaldrf_0.4.2               causaldata_0.1.3             
[37] causalCmprsk_1.1.0            causal.decomp_0.1.0       

Bis jetzt nur "sr" anwenden.

Viel Erfolg!