L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3358

 
Discuté il y a longtemps, il a abouti à une sur-optimisation de f-y :)
 
Andrey Dik #:
Nous avons discuté de ce sujet à l'époque de Porksaurus, Matemat, Granite et Metadriver, il y a bien longtemps.
Je n'ai pas vu ce sujet chez eux, peut-être l'ai-je manqué (je lisais plus souvent Cyberpaw). Il s'agit de modèles qui produisent des distributions de probabilité en sortie, plutôt que des valeurs numériques spécifiques. Cela ne veut pas dire qu'il s'agit d'une approche complètement nouvelle, mais ces dernières années, l'intérêt pour ce sujet s'est considérablement accru.
 
Aleksey Nikolayev #:
Je n'ai pas vu ce sujet, peut-être l'ai-je manqué (j'avais l'habitude de lire davantage Cyberpawk). Il s'agit de modèles qui produisent des distributions de probabilités en sortie plutôt que des valeurs numériques spécifiques. Cela ne veut pas dire qu'il s'agit d'une approche complètement nouvelle, mais il y a eu une augmentation notable de l'intérêt pour ce sujet au cours des dernières années.

Il y a eu de nombreuses tentatives, mais je ne connais pas leurs résultats publics. La chose la plus simple qui a été faite est de traiter la sortie d'un seul neurone comme la probabilité d'une vente ou d'un achat dans l'intervalle [-1,0;1,0], mais cela n'a rien donné de bon, et l'application d'un seuil n'aide pas.

Une autre chose est qu'il est possible d'appliquer la distribution des sorties de neurones comme une probabilité, mais je n'ai vu personne le faire. Par exemple, pour les mêmes signaux de vente/achat du neurone de sortie du réseau pendant l'apprentissage, la distribution des valeurs peut être très différente, de sorte que le comportement sur OOS sera différent.

D'ailleurs, j'ai montré il y a longtemps des graphiques d'entraînement et de comportement sur OOS, où la ligne va sans rupture, bien sûr sans propagation, et l'entrée a été donnée des incréments de mashka simple de différents horizons temporels, élémentaires. Et voilà que des génies ont soudain tiré la conclusion "brillante" que le spread affecte le comportement sur OOS.

 
Andrey Dik #:

Il y a eu de nombreuses tentatives, mais je ne connais pas leurs résultats publics. La chose la plus simple qui a été faite a été de traiter la sortie d'un seul neurone comme une probabilité de vente/achat dans l'intervalle [-1.0;1.0], rien de bon n'en est sorti, l'application d'un seuil n'aide pas.

Une autre chose est que vous pouvez appliquer la distribution des sorties de neurones comme une probabilité, mais je n'ai vu personne le faire. Par exemple, avec les mêmes signaux de vente/achat du neurone de sortie du réseau pendant l'apprentissage, la distribution des valeurs peut être très différente, de sorte que le comportement sur OOS sera différent.

D'ailleurs, j'ai montré il y a longtemps des graphiques d'entraînement et de comportement sur OOS, où la ligne va sans rupture, bien sûr sans propagation, et l'entrée a été donnée des incréments de mashka simple de différents horizons temporels, élémentaires. Et voilà que des génies ont soudain tiré la conclusion "brillante" que le spread affecte le comportement sur OOS.

Cependant, la classification est un cas spécial relativement simple, dans lequel la distribution de la production est discrète et où tout est donc relativement facile à réduire au problème habituel de la MO numérique "ponctuelle".

Une approche plus large est intéressante, avec des modèles pour lesquels le résultat n'est pas un nombre, mais une distribution quelconque (dans des limites raisonnables, bien sûr). On peut citer comme exemple le mode opératoire utilisé en théorie de la fiabilité (où l'on étudie la distribution de la durée de vie) ou dans les prévisions météorologiques probabilistes (où l'on construit une distribution de probabilités pour la quantité possible de précipitations, par exemple).

 
Aleksey Nikolayev #:

...

Une approche plus large est intéressante, avec des modèles pour lesquels le résultat n'est pas un nombre, mais une distribution quelconque (dans des limites raisonnables, bien sûr). Un exemple serait le MO utilisé dans la théorie de la fiabilité (où la distribution de la durée de vie est étudiée) ou dans les prévisions météorologiques probabilistes (où une distribution de probabilité est construite pour la quantité possible de précipitations, par exemple).


C'est ce que je disais en fait, essayer d'utiliser la distribution, et non les valeurs de sortie elles-mêmes, comme classificateur.
 
Les probabilités sont dérivées d'un modèle déjà formé. Sinon, pourquoi lui enseigner des probabilités ? Si les probabilités sont connues, pourquoi l'entraîner ?

Moments des distributions dans les modèles de régression pour l'estimation des intervalles ? Non, vous n'en avez pas entendu parler ? Avez-vous fait beaucoup de prévisions avec ces modèles ?

Il y a 20 ans, vous saviez tout, mais vous étiez trop gêné pour le dire. C'est une longue période pour se débarrasser de la sur-optimisation des phases.

C'est triste, 20 ans...
 

Former une distribution de probabilité pendant la formation, pas après.

Et après la formation, à quoi bon faire quoi que ce soit ? Un hypothétique fou de la machine n'acquerra pas de nouvelles connaissances si on lui donne un coup de tournevis après la formation.

 
Maxim Dmitrievsky #:

J'ai déjà décrit l'exemple ci-dessus. Il existe un classificateur qui réussit l'OOS, mais les retours sont distribués à 60/40. Vous n'aimez pas cela, vous augmentez le seuil de décision, mais la situation ne change pas, et parfois elle empire même. Vous vous demandez pourquoi il en est ainsi.

L'explication est donnée : dans le cas d'une estimation de probabilité réelle, la situation devrait changer.

Une solution est proposée.


Comment trouve-t-on des crétins comme ce Karpov ?

La tête de cet homme est en désordre. Il est incapable d'avoir une pensée cohérente. Il est tout simplement effrayant !

Dès les premières minutes, il affirme simplement que le classificateur ne donne pas de probabilité. Et où peut-on obtenir la probabilité sans utiliser ce que donne le classificateur ?

 
СанСаныч Фоменко #:

Comment trouvez-vous des crétins comme ce Karpov ?

La tête de cet homme est en désordre. Il est incapable d'avoir une pensée cohérente. C'est tout simplement effrayant !

Tu as aussi été invité à travailler en Angleterre avec ta bouillie ? )

l'homme s'en fout complètement, il se débrouille bien.

Ne pas comprendre != se tromper. Ce sont des gens d'une formation un peu différente, c'est probablement ça le problème.

Il est évident depuis longtemps que le sujet a besoin de sang neuf. Je suis déjà un oldfag moi aussi. Les nouveaux viendront et se montreront, si le forum n'est pas moisi à la fin bien sûr.

Le pire, c'est que je comprends les changements qui se produisent dans le cerveau avec l'âge, et pourquoi les gens raisonnent de telle ou telle manière. Cette évidence est parfois hilarante, mais il n'y a pas moyen d'y échapper.

 
Maxim Dmitrievsky #:

Avez-vous été invitée à travailler en Angleterre avec votre porridge ? )

l'homme s'en fiche complètement, il se débrouille bien.

Ne pas comprendre l'idée != ne pas y remédier. Ce sont des gens d'une formation un peu différente, c'est probablement ça le problème.

Il est évident depuis longtemps que le sujet a besoin de sang neuf. Je suis déjà un oldfag moi aussi. Les nouveaux viendront et se montreront, si le forum n'est pas moisi à la fin bien sûr.

Le pire, c'est que je comprends les changements qui se produisent dans le cerveau avec l'âge, et pourquoi les gens raisonnent de telle ou telle manière. Cette évidence est parfois hilarante, mais il n'y a pas moyen d'y échapper.

Quel est le rapport avec l'Angleterre ?

Vous semblez être une personne qualifiée, mais on vous traîne constamment à la poubelle.

Vous n'argumentez que très rarement sur les mérites....