L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2842

 
Aleksey Nikolayev #:

En fait, vous faites également de l'optimisation. Vous avez inventé un critère de "stationnarité des caractéristiques" et vous prenez les caractéristiques optimales en fonction de ce critère. C'est la même optimisation dans l'histoire, mais dans le profil.

Nous devrions certainement inventer un critère de robustesse de la TS et optimiser en fonction de ce critère).

Génial, en termes de tolérance.

Vous allez dans un magasin, vous choisissez un pantalon - l'optimisation se fait en fonction de votre silhouette !

Nous parlons ici de quelque chose de complètement différent - le raffinement des algorithmes d'optimisation disponibles dans les modèles. Je m'oppose au perfectionnement d'algorithmes d'optimisation déjà intégrés. Il existe un algorithme dans le testeur - très bien. Le perfectionnement de cet algorithme ne vous permettra pas d'obtenir un TS rentable à partir d'un TS épuisant. Il en va de même pour les algorithmes intégrés dans les modèles.

De même, vous devez être extrêmement prudent lorsque vous optimisez les paramètres du modèle, car vous pouvez facilement réentraîner le modèle.

J'en suis arrivé à la réflexion la plus importante : le lien incontestable entre l'optimisation et le surentraînement du modèle. Le modèle doit toujours rester assez "grossier" et il n'est certainement pas nécessaire d'obtenir des optimums globaux.


Lorsque je cherche une liste acceptable de prédicteurs, il s'agit d'une optimisation au sens strict du terme. Mais le sens est tout à fait différent : il s'agit d'essayer d'éviter le "rubbish in - rubbish out". Il y a ici une différence qualitative par rapport à la recherche du "bon" algorithme qui trouve l'optimum global. Aucun optimum global ne donnera une TS rentable sur les déchets.

 

Maxim Vladimirovich, que pensez-vous du clustering quantique ?

https://github.com/enniogit/Quantum_K-means

 
Aleksey Nikolayev #:

Pour des raisons évidentes, le mot "optimisation" a mauvaise réputation sur notre forum. Il est donc tout à fait compréhensible que nous voulions nous en éloigner d'une manière ou d'une autre et que nous n'utilisions même pas le mot lui-même. Néanmoins, tout entraînement d'un modèle MO est presque toujours une optimisation, de sorte que vous ne pouvez pas retirer les mots d'une chanson.

Je ne veux blesser personne, leur apprendre la vie ou leur expliquer comment faire des affaires) J'écris seulement avec un faible espoir que metaquotes prendra mes remarques en compte lors de l'implémentation de la MO dans MT5.


comme c'est sorti de la bouche... Il y a une véritable attitude négative à l'égard du concept d'"optimisation".
J'ajouterais seulement qu'il faut toujours se rappeler que le modèle (TS) est primaire, l'optimisation est secondaire. si le modèle ne fonctionne pas, l'optimisation n'ajoutera pas de robustesse.
En réalité, il existe des systèmes de trading qui fonctionnent avec un large éventail de paramètres, mais même dans ces systèmes, il existe toujours des paramètres optimaux qui donneront un meilleur résultat de trading au bout du compte.
Lors de la construction d'un système de négociation, le modèle est important en premier lieu, ses critères d'évaluation en second lieu, et ce n'est qu'ensuite que vient l'optimisation. le contraire serait fondamentalement erroné.
Si quelqu'un dit que l'optimisation est un mal, cela signifie qu'il ou elle a mal choisi sa séquence.
Ce n'est qu'en comprenant ce qui précède que l'on peut arriver à comprendre que, quelle que soit la manière dont on procède, il est impossible d'atteindre la MO sans optimisation.
Le testeur et l'optimiseur en tant qu'ensemble ont gagné en notoriété par le simple fait que les utilisateurs fabriquent une foutue chose et pensent qu'après l'optimisation cette merde sera rentable. non, elle ne le sera pas, c'est pourquoi elle sera une foutue chose. ceci est facilité par la facilité de créer des Expert Advisors dans ME et la disponibilité de variantes prêtes à l'emploi dans la livraison. mais en même temps il n'y a pratiquement pas d'outils pour évaluer la stratégie de création de clusters d'ensembles de travail. la bonne chose est que µl comble complètement cette lacune.
Pour résumer ce qui précède, nous pouvons conclure que les algorithmes d'optimisation rendront les personnes prospères encore plus prospères (cela s'applique à toutes les sphères de l'activité humaine), et malheureusement les personnes malheureuses encore plus malheureuses. la raison en est simple : des priorités mal définies.
même les voitures de formule 1 sont soigneusement optimisées, pourquoi ? pourquoi ? parce que ces voitures sont bonnes telles qu'elles sont))) la réponse est simple, elles sont optimisées en fonction des critères d'utilisation du conducteur de la voiture. bien que les caractéristiques générales des voitures soient les mêmes, le tuning vous permet d'ajuster la voiture par exemple sur la courbe d'accélération, un autre conducteur préférera une vitesse plus élevée en ligne droite. aucun des conducteurs des voitures ne pense "l'optimisation c'est de la merde !, qu'est-ce que j'en ai besoin, je conduirai par défaut !" - Sinon, vous allez perdre, vous allez avoir des enfants affamés, une femme en colère et tous les autres plaisirs de l'échec.

d'où la séquence nécessaire au succès : voiture (TC) - critères de réglage (critères d'évaluation du TC) - optimisation.
aucune autre séquence correcte n'est en principe possible.
 
J'aimerais également ajouter que les algorithmes d'optimisation sont avant tout des algorithmes de recherche, ils ne sont pas uniquement utilisés pour rechercher des paramètres de MASQUE comme le pensent de nombreuses personnes.
Il est possible de faire des choses beaucoup plus complexes et non triviales.
 
Andrey Dik #:

C 'est-à-dire que l'optimisation ne peut pas, par définition, dégrader le modèle.

Cela est correct pour les systèmes de contrôle automatique, mais absolument PAS pour les modèles opérant sur les marchés financiers avec des processus non stationnaires. Il existe un mal, un mal absolu, appelé "surentraînement". C'est le principal mal (après les déchets d'entrée) qui rend absolument tout modèle inopérant. Un bon modèle devrait toujours être sous-optimal, un peu plus grossier que la réalité. Je pense que c'est l'optimum global qui contribue particulièrement au surentraînement des modèles.

 
un autre point important.
Plus le nombre de paramètres est faible, plus le modèle est performant dans la chaîne d'optimisation.
modèle - critère - optimisation,
Si les degrés de liberté augmentent, ce qui est mauvais, l'augmentation du nombre de critères ou de paramètres du critère réduit au contraire les degrés de liberté du modèle, agissant comme une sorte de "frontière".
En ce qui concerne le nombre de paramètres de l'OA, je me réfère aux inconvénients du grand nombre de possibilités de réglage, car cela complique l'application pratique de l'OA, bien que, dans les mains habiles d'un chercheur qui comprend ce qu'il fait, cela permette d'obtenir des avantages supplémentaires en termes de qualité et de rapidité de l'optimisation, en réduisant en quelque sorte indirectement la variabilité du modèle encore plus, s'il a trop de paramètres.
 
СанСаныч Фоменко #:

C'est une bonne idée pour les systèmes de contrôle automatique, mais absolument PAS pour les modèles opérant sur les marchés financiers avec des processus NON stationnaires. Il existe un mal, un mal absolu, appelé "surentraînement". C'est le principal mal (après les déchets d'entrée) qui rend absolument tout modèle inopérant. Un bon modèle devrait toujours être sous-optimal, un peu plus grossier que la réalité. Je pense que c'est l'optimum global qui contribue particulièrement au surentraînement des modèles.


Le surentraînement n'est pas la conséquence d'une mauvaise utilisation de l'optimisation, mais la conséquence d'un mauvais choix du critère d'évaluation du modèle. l'erreur a été commise AVANT l'optimisation. et il est tout à fait possible que, même au premier élément de la chaîne, le modèle soit mauvais.
Dire que le modèle devrait être un peu sous-entraîné est aussi faux que de dire qu'un sapeur ou un chirurgien est sous-entraîné. vous devriez blâmer le sapeur ou le chirurgien ou leurs professeurs, et non la possibilité même d'apprendre (d'améliorer, d'optimiser).
Blâmer la non-stationnarité est également erroné, ce qui implique également l'optimisation. Cela signifie que le chercheur ne dispose pas d'un bon modèle pour une série non stationnaire.
 
Je m'excuse si j'ai offensé quelqu'un en plongeant le lecteur dans la dure réalité.
 

Il semble que des concepts soient utilisés dans des contextes différents.

Par exemple, le terme "plateau" désigne un large éventail de paramètres de la manière d'obtenir des facteurs externes influençant la logique du modèle. Par exemple, une large gamme d'efficacité de la mashka sur la base de laquelle le prédicteur est fabriqué.

L'optimisation à l'aide d'algorithmes MO, dont il est question ici, concerne la construction de la logique de décision, tandis que l'optimisation dans le testeur de stratégie concerne généralement l'ajustement des données d'entrée, alors que la logique de décision est déjà prescrite et présente au mieux une variabilité.

Les deux types d'optimisation sont différents - l'un modifie l'espace et l'autre les relations qui s'y trouvent.

Je me suis alors demandé ce qu'il fallait régler en premier : les signes/prédicteurs ou la recherche d'un modèle, puis la recherche des paramètres optimaux dans l'optimiseur terminal. Bien qu'il soit extrêmement difficile de rechercher des paramètres s'il y a beaucoup de données d'entrée, je me demande s'il est possible de changer l'espace et la logique.

Est-il possible de changer d'espace et de logique en même temps pendant l'entraînement, peut-être devrions-nous réfléchir à la manière de le faire ?

SanSanych Fomenko, faut-il s'attendre à un échantillonnage ?

 
Andrey Dik #:

le surentraînement n'est pas une conséquence d'une mauvaise utilisation de l'optimisation, mais une conséquence d'un mauvais choix du critère d'évaluation du modèle. l'erreur a été commise AVANT l'optimisation. et il est tout à fait possible que sur le premier élément de la chaîne - le modèle soit merdique.
Dire que le modèle devrait être un peu sous-entraîné est aussi faux qu'un bon sapeur ou chirurgien sous-entraîné. il faut blâmer le sapeur ou le chirurgien ou leurs professeurs, et non la possibilité même d'apprendre (d'améliorer, d'optimiser).
Blâmer la non-stationnarité est également erroné, ce qui implique également une optimisation. Cela signifie que le chercheur ne dispose pas d'un bon modèle pour une série non stationnaire.

Je vois que vous avez une connaissance superficielle des modèles d'apprentissage automatique. Vous avez une connaissance superficielle des modèles d'apprentissage automatique.

Le premier élément de la chaîne est le prétraitement, qui nécessite 50 à 70 % du travail. C'est à ce stade que le succès futur est déterminé.

Le deuxième élément de la chaîne est l'entraînement du modèle sur l'ensemble d'entraînement.

Le troisième élément de la chaîne est l'exécution du modèle entraîné sur l'ensemble de test. Si les performances du modèle sur ces ensembles diffèrent d'au moins un tiers, le modèle est réentraîné. Cela arrive de temps en temps, voire plus souvent. Un modèle surentraîné est un modèle trop précis. Désolé, c'est l'essentiel.