L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2842
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
En fait, vous faites également de l'optimisation. Vous avez inventé un critère de "stationnarité des caractéristiques" et vous prenez les caractéristiques optimales en fonction de ce critère. C'est la même optimisation dans l'histoire, mais dans le profil.
Nous devrions certainement inventer un critère de robustesse de la TS et optimiser en fonction de ce critère).Génial, en termes de tolérance.
Vous allez dans un magasin, vous choisissez un pantalon - l'optimisation se fait en fonction de votre silhouette !
Nous parlons ici de quelque chose de complètement différent - le raffinement des algorithmes d'optimisation disponibles dans les modèles. Je m'oppose au perfectionnement d'algorithmes d'optimisation déjà intégrés. Il existe un algorithme dans le testeur - très bien. Le perfectionnement de cet algorithme ne vous permettra pas d'obtenir un TS rentable à partir d'un TS épuisant. Il en va de même pour les algorithmes intégrés dans les modèles.
De même, vous devez être extrêmement prudent lorsque vous optimisez les paramètres du modèle, car vous pouvez facilement réentraîner le modèle.
J'en suis arrivé à la réflexion la plus importante : le lien incontestable entre l'optimisation et le surentraînement du modèle. Le modèle doit toujours rester assez "grossier" et il n'est certainement pas nécessaire d'obtenir des optimums globaux.
Lorsque je cherche une liste acceptable de prédicteurs, il s'agit d'une optimisation au sens strict du terme. Mais le sens est tout à fait différent : il s'agit d'essayer d'éviter le "rubbish in - rubbish out". Il y a ici une différence qualitative par rapport à la recherche du "bon" algorithme qui trouve l'optimum global. Aucun optimum global ne donnera une TS rentable sur les déchets.
Maxim Vladimirovich, que pensez-vous du clustering quantique ?
https://github.com/enniogit/Quantum_K-means
Pour des raisons évidentes, le mot "optimisation" a mauvaise réputation sur notre forum. Il est donc tout à fait compréhensible que nous voulions nous en éloigner d'une manière ou d'une autre et que nous n'utilisions même pas le mot lui-même. Néanmoins, tout entraînement d'un modèle MO est presque toujours une optimisation, de sorte que vous ne pouvez pas retirer les mots d'une chanson.
Je ne veux blesser personne, leur apprendre la vie ou leur expliquer comment faire des affaires) J'écris seulement avec un faible espoir que metaquotes prendra mes remarques en compte lors de l'implémentation de la MO dans MT5.
Cela est correct pour les systèmes de contrôle automatique, mais absolument PAS pour les modèles opérant sur les marchés financiers avec des processus non stationnaires. Il existe un mal, un mal absolu, appelé "surentraînement". C'est le principal mal (après les déchets d'entrée) qui rend absolument tout modèle inopérant. Un bon modèle devrait toujours être sous-optimal, un peu plus grossier que la réalité. Je pense que c'est l'optimum global qui contribue particulièrement au surentraînement des modèles.
C'est une bonne idée pour les systèmes de contrôle automatique, mais absolument PAS pour les modèles opérant sur les marchés financiers avec des processus NON stationnaires. Il existe un mal, un mal absolu, appelé "surentraînement". C'est le principal mal (après les déchets d'entrée) qui rend absolument tout modèle inopérant. Un bon modèle devrait toujours être sous-optimal, un peu plus grossier que la réalité. Je pense que c'est l'optimum global qui contribue particulièrement au surentraînement des modèles.
Il semble que des concepts soient utilisés dans des contextes différents.
Par exemple, le terme "plateau" désigne un large éventail de paramètres de la manière d'obtenir des facteurs externes influençant la logique du modèle. Par exemple, une large gamme d'efficacité de la mashka sur la base de laquelle le prédicteur est fabriqué.
L'optimisation à l'aide d'algorithmes MO, dont il est question ici, concerne la construction de la logique de décision, tandis que l'optimisation dans le testeur de stratégie concerne généralement l'ajustement des données d'entrée, alors que la logique de décision est déjà prescrite et présente au mieux une variabilité.
Les deux types d'optimisation sont différents - l'un modifie l'espace et l'autre les relations qui s'y trouvent.
Je me suis alors demandé ce qu'il fallait régler en premier : les signes/prédicteurs ou la recherche d'un modèle, puis la recherche des paramètres optimaux dans l'optimiseur terminal. Bien qu'il soit extrêmement difficile de rechercher des paramètres s'il y a beaucoup de données d'entrée, je me demande s'il est possible de changer l'espace et la logique.
Est-il possible de changer d'espace et de logique en même temps pendant l'entraînement, peut-être devrions-nous réfléchir à la manière de le faire ?
SanSanych Fomenko, faut-il s'attendre à un échantillonnage ?
Je vois que vous avez une connaissance superficielle des modèles d'apprentissage automatique. Vous avez une connaissance superficielle des modèles d'apprentissage automatique.
Le premier élément de la chaîne est le prétraitement, qui nécessite 50 à 70 % du travail. C'est à ce stade que le succès futur est déterminé.
Le deuxième élément de la chaîne est l'entraînement du modèle sur l'ensemble d'entraînement.
Le troisième élément de la chaîne est l'exécution du modèle entraîné sur l'ensemble de test. Si les performances du modèle sur ces ensembles diffèrent d'au moins un tiers, le modèle est réentraîné. Cela arrive de temps en temps, voire plus souvent. Un modèle surentraîné est un modèle trop précis. Désolé, c'est l'essentiel.