L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2611

 
Renat Akhtyamov #:

99% de probabilité ou 0,99 sans pourcentage

Tu es un homme effrayant !

Pour avoir ce genre de probabilité et communiquer avec de simples mortels... ? - ce n'est pas réel...

 
Serqey Nikitin #:

Tu es un homme effrayant !

Avoir une telle possibilité et communiquer avec de simples mortels... ? - ce n'est pas réel...

allez ;)

le fait est que peu importe les efforts des traders, la plupart d'entre eux finissent par négocier des contre-tendances.

regardez la distribution des volumes sur le CME, ils sont publiés dynamiquement en ligne et le comportement du prix

Cela ne veut dire qu'une chose : le prix est contraire à la plupart des prix.

acheté - prix en baisse et vice versa.

et il en a été ainsi et il en sera toujours ainsi

parce que :

https://www.mql5.com/ru/forum/86386/page2605#comment_28636383

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2022.03.29
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Ce n'est pas une bonne idée d'élaborer une stratégie basée sur les informations de la FMC.

parce que.

dès qu'ils s'en aperçoivent, ils savent comment rejeter les mauvaises informations.

Je suis passé par là, je l'ai fait ;)

 

Il s'agit d'une sorte de boosting, comme l'a souligné Alexei.

Amélioration à chaque itération, compte tenu de l'échantillonnage de l'examen

Iteration: 0, R^2: 0.187883200953193
Iteration: 1, R^2: 0.23135332833695177
Iteration: 2, R^2: 0.5069635195005324
Iteration: 3, R^2: 0.6549692113098968
Iteration: 4, R^2: 0.49450581772674385
Iteration: 5, R^2: 0.727741771152099
Iteration: 6, R^2: 0.7155342473909062
Iteration: 7, R^2: 0.7577880020333465
Iteration: 8, R^2: 0.7519731839574526
Iteration: 9, R^2: 0.6484696911159258
Iteration: 10, R^2: 0.7919754252032625
Iteration: 11, R^2: 0.7434806103697286
Iteration: 12, R^2: 0.7829611167594436
Iteration: 13, R^2: 0.8423847977639594
Iteration: 14, R^2: 0.8755566220080022
Iteration: 15, R^2: 0.8073736447495541
Iteration: 16, R^2: 0.7756062175823373
Iteration: 17, R^2: 0.8767667338484959
Iteration: 18, R^2: 0.8658089653482818
Iteration: 19, R^2: 0.7976304450279426
Iteration: 20, R^2: 0.8335757510984808
Iteration: 21, R^2: 0.8236019726095158
Iteration: 22, R^2: 0.8590437311223307
Iteration: 23, R^2: 0.8425455355207566
Iteration: 24, R^2: 0.7897953478024325

Mais l'arrière n'est pas bon (à gauche), mais parfois c'est mieux.

Il existe de nombreux paramètres, que je ne vais pas expliquer en détail. J'ai décrit l'idée du mieux que j'ai pu.


 

si vous attendez 100 itérations


 
Maxim Dmitrievsky #:
La régularité implique la répétitivité. Vous ne cherchez pas un modèle, vous faites un ajustement de validation.
Votre algorithme ne prend pas en compte la répétitivité des dépendances trouvées, il ne vérifie donc pas s'il existe un modèle...

Voici un exemple sur vos doigts.
Vous disposez d'un échantillon de 100 observations.
Vous pouvez construire 100 règles qui utiliseront une fois par prévision ou trouver une règle qui utilisera 100 fois...

Sur quelle approche parier ?

 
Maxim Dmitrievsky #:

Il s'agit d'une sorte de boosting, comme l'a fait remarquer Alexei.

Amélioration à chaque itération, compte tenu de l'échantillonnage de l'examen

Mais l'arrière n'est pas bon (à gauche), mais parfois c'est mieux.

Il existe de nombreux paramètres, que je ne vais pas expliquer en détail. J'ai décrit l'idée du mieux que j'ai pu.


Fondamentalement, j'ai juste besoin de regarder 2 graphiques (équité), tous sur OOS pur : 1 - premier modèle, formé, sans aucune caractéristique supplémentaire, 2 - après toutes ces procédures décrites. Vous pouvez également utiliser les métriques PF, RF et winrate. Et donc ce n'est pas clair, quel est l'effet, une belle courbe d'apprentissage est, comme je comprends, sur les SI ?

 
Replikant_mih #:

En fait, il suffit de regarder deux graphiques (actions), tous sur de purs OOS : 1 - le premier modèle, formé, sans aucune fioriture, 2 - après toutes ces procédures décrites. Vous pouvez également utiliser les métriques PF, RF et winrate. Et donc ce n'est pas clair, quel est l'effet, une belle courbe d'apprentissage est, comme je le comprends, sur les SI ?

premier tiers du graphique - nouvelles données, non impliquées dans l'apprentissage

les images avec 25 et 100 itérations montrent une amélioration à 100, bien que le maximum soit autour de 70
 
Maxim Dmitrievsky #:

Il y a une question comme celle-ci :

Deux modèles sont utilisés. L'un prédit d'acheter ou de vendre, l'autre d'échanger ou de ne pas échanger.

D'abord, le premier modèle est entraîné, puis nous regardons où il prédit mal, nous marquons ces exemples comme "ne pas échanger", les autres bons comme "échanger", et nous enseignons cela au deuxième modèle.

Le premier modèle est testé non seulement dans la zone de formation mais aussi dans la zone supplémentaire et le second modèle est formé dans les deux zones.

Nous répétons cette opération plusieurs fois, en réentraînant les deux modèles sur le même ensemble de données. Les résultats s'améliorent progressivement sur les échantillons. Mais pas toujours sur l'échantillon de contrôle.

Parallèlement à cela, nous conservons un journal des mauvaises transactions cumulées pour toutes les passes, toutes les "mauvaises" transactions pour "ne pas échanger" sont collectées dans ce journal pour l'entraînement du second modèle et filtrées selon un certain principe : plus il y a de copies de mauvaises transactions pour toutes les passes, plus il y a de chances de les marquer comme "ne pas échanger".

Par exemple, pour chaque date, un certain nombre de mauvaises transactions est accumulé pour toutes les itérations de l'apprentissage, lorsque ce nombre dépasse un seuil (moyenne, moyenne), ces transactions sont marquées comme "ne pas négocier". Les autres transactions sont ignorées, sinon il serait possible d'exclure toutes les transactions s'il y a beaucoup d'itérations d'entraînement.

Le coefficient vous permet d'ajuster le nombre de transactions à la sortie, plus il est faible, plus le nombre de transactions filtrées est élevé.

... à ce stade, je suis déjà fatigué d'écrire ...

Comment améliorer une telle combinaison de modèles pour qu'elle améliore ses résultats sur une nouvelle parcelle indépendante ?
Y a-t-il une philosophie qui explique pourquoi cela pourrait fonctionner ? Outre le fait que les modèles s'améliorent naturellement (l'erreur diminue) à chaque cycle de réentraînement, mais comment se débarrasser de l'ajustement ?

Illustration. Le graphique est divisé en 3 parties. Le dernier forme le premier modèle, l'avant-dernier et le dernier le second, le premier tiers est un échantillon d'examen. Naturellement, la dernière section sera la meilleure et le premier tiers la pire.

Ici, il y a eu 15 itérations de réentraînement des deux modèles, en utilisant le journal des mauvaises transactions.

cela ressemble à une classification multi-label triviale - nous ne devrions pas faire varier la combinaison des modèles, mais la combinaison des prédicteurs -- tout d'abord, la division des prédicteurs en caractéristiques des actions smart & retail... parce que bien sûr il y aura des signaux contraires, mais les points d'entrée OTF (pour la rupture des niveaux) - c'est déjà Edge pour la sélection du modèle (action dtf ou otf sur le marché)... imho

==========

ou sans marquage, mais juste avec LSTM avec possibilité d'oublier les portes, donc pas besoin de filtrer séparément à partir de 2 modèles... mais c'est une question de goût...

ibm

J'ai obtenu une régression sur IBM (données de test de fin 2021 - là, la queue droite sur le graphique des prix est représentée sur le graphique du train et du test).... ... simplement par Close...

pred

- ... J'ai une MA triviale - et elle fonctionnera toujours dans une tendance (quelle que soit la façon dont elle fonctionne), pas dans un plat - le comportement smart & retail devrait être filtré en plus (et le modèle devrait être repensé pour classer les entrants et les sortants...).

Dossiers :
 
JeeyCi #:

ressemble à une classification multi-label triviale - ce n'est pas la combinaison des modèles qui devrait être variée, mais la combinaison des prédicteurs - tout d'abord la division des prédicteurs en caractéristiques des actions smart & retail... parce que bien sûr il y aura des signaux contraires, mais les points d'entrée OTF (pour la rupture des niveaux) - c'est déjà Edge pour la sélection du modèle (action dtf ou otf sur le marché)... imho

==========

ou sans balisage, mais juste avec LSTM et couches, pour ne pas avoir à filtrer séparément à partir de 2 modèles... mais c'est une question de goût...

J'ai obtenu une régression sur IBM (données de test de fin 2021 - là, la queue droite sur le graphique des prix est représentée sur le graphique du train et du test).... ... simplement par Close... - Nous avons une MA triviale - et elle fonctionnera toujours dans une tendance (peu importe comment), pas dans un plat - le comportement smart & retail devrait être filtré en plus (et le modèle devrait être redessiné pour classer les entrants et les sortants...).

Il ne s'agit pas d'un multilabel, la signification est différente. Exclure les mauvais signaux de manière itérative, laisser ceux qui sont bien prédits par le modèle principal dans la pile commune, et le second modèle apprend à séparer les mauvais des bons, interdire ou autoriser la négociation du premier.

lstm produit toujours MA, testé il y a longtemps