L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2602

 
mytarmailS #:
Un exemple concret :
Il existe une règle logique qui prédit quelque chose avec une probabilité de 80% à la fois sur le train et le test et la validation croisée, etc... Mais sur les données de validation (nouvelles données absolument inconnues), la règle fonctionne au niveau aléatoire...

Il y a une autre règle qui se comporte de la même manière que la première dans un train, test et passe la validation également sans problèmes, c'est-à-dire que c'est un vrai motif...

Question : comment puis-je distinguer une règle d'une autre au stade du train, du test, de la contre-validation... avant le stade de validation...

Je me demande s'il existe des signes permettant de tracer la ligne entre l'un et l'autre, peut-être des tests statistiques pour le hasard ou le déterminisme, etc...

La question du caractère aléatoire et de la continuité est la pierre angulaire de l'ensemble de l'algo et des ML dans l'algo.

Des tas de trucs et astuces de toutes sortes.


Le plus simple est de regarder comment vous avez obtenu le résultat. Si le meilleur résultat que vous avez obtenu... en choisissant le meilleur résultat de l'ensemble - bien sûr, la probabilité d'ajustement est très élevée (surtout si la plupart des autres résultats sont à peu près nuls). Les résultats du test. Comment les avez-vous eus ? - Bien sûr, si vous prenez les 5% des meilleurs sur le plateau, que vous les faites tous passer au test, que vous sélectionnez le meilleur sur le test - bien sûr, la probabilité d'adaptation n'est toujours pas faible (surtout si le résultat moyen des autres n'est pas grand). Ce "comment ne pas le faire" réduira, j'en suis sûr, la probabilité d'être surajusté de manière très décente. C'est pour cette raison que je ne vois pas comment le robot/modèle de quelqu'un d'autre peut être évalué sur l'équité - pas question.


En outre, comme on l'a dit, toutes sortes de trucs et astuces.

 
Replikant_mih #:

La question du caractère aléatoire/illicite est la pierre angulaire de tous les algo et des ML dans les algo.

Il y a toutes sortes de trucs et astuces.

Le plus simple est de regarder comment vous avez obtenu le résultat. Si le meilleur résultat que vous avez obtenu... en choisissant le meilleur résultat de l'ensemble - bien sûr, la probabilité d'ajustement est très élevée (surtout si la plupart des autres résultats sont à peu près nuls). Les résultats du test. Comment les avez-vous eus ? - Bien sûr, si vous prenez les 5% des meilleurs sur le plateau, que vous les faites tous passer au test, que vous sélectionnez le meilleur sur le test - bien sûr, la probabilité d'adaptation n'est toujours pas faible (surtout si le résultat moyen des autres n'est pas grand). Ce "comment ne pas le faire" réduira, j'en suis sûr, la probabilité d'être surajusté de manière très décente. C'est pour cette raison que je ne vois pas comment le robot/modèle de quelqu'un d'autre peut être évalué sur l'équité - pas question.

En outre, comme on l'a dit, toutes sortes de trucs et astuces.

C'est tout ce qui est évident, huilé... Intéressé par des astuces spécifiques

==============================

Par exemple, à titre de variante, l'analyse de la surface d'optimisation (RP) de TC, des règles, de l'AMO, etc...

Par exemple, l'intersection OD TC de deux wagons par le "facteur de récupération" cible.

Bien sûr, ce TS ne fonctionne pas, n'a jamais fonctionné et ne fonctionnera jamais.


=======================================

Et voici un PP TS qui fonctionne, qui est très stable et qui fait des bénéfices jusqu'à présent (Valery le sait :) ).


Pour ainsi dire, ressentir la différence.

 

J'ai donc l'idée obsessionnelle que si l'on voit l'OD du TC, on peut dire ce qu'il est et s'il fonctionnera avec les nouvelles données...

Mais le calcul de la DO est long et compliqué, il peut peut-être être contourné d'une manière plus élégante et moins chronophage du point de vue des ressources informatiques.

 
mytarmailS #:

J'ai donc l'idée obsessionnelle que si l'on voit l'OD du TC, on peut dire ce qu'il est et s'il fonctionnera avec les nouvelles données...

Mais le calcul de l'OP est long et compliqué, il est peut-être possible de le contourner de manière plus élégante et moins laborieuse en termes de ressources informatiques.

J'ai une idée de comment les algo-traders font ça. Je n'ai aucune idée de la façon dont les spécialistes des données le font. Et je sais exactement comment je fais)).


La surface d'optimisation, telle que je la comprends, est (dans ce cas) un espace à 3 dimensions, où 2 axes sont des axes de paramètres (modèle, stratégie) et un est la métrique cible. Oui, bien sûr, vous pouvez entrer par là. J'ai quelques moyens, et si besoin est, je peux trouver autre chose. Je le vois de l'autre côté maintenant, cependant. Et bien sûr, il n'y a aucune envie de partager des informations utiles avec quelqu'un qui y va avec"C'est des trucs évidents, des papillons").

 
mytarmailS #:
Il n'est pas toujours possible de tracer la causalité

Ensuite, seules des hypothèses peuvent être formulées sur les causes et la présence d'un modèle. Les causes sont primaires, le comportement est secondaire. En AT, ils oublient parfois la primauté des causes et prennent les répétitions aléatoires de comportements pour des modèles, ce qui n'est pas le cas.

 
Replikant_mih #:

J'ai une idée de comment les algo-traders font ça. Je n'ai aucune idée de la façon dont les spécialistes des données le font. Et je sais exactement comment je fais.)


La surface d'optimisation, telle que je la comprends, est (dans ce cas) un espace à 3 dimensions, où 2 axes sont des axes de paramètres (modèle, stratégie) et un est la métrique cible. Oui, bien sûr, vous pouvez entrer par là. J'ai quelques moyens, et si besoin est, je peux penser à autre chose. Mais je le vois de l'autre côté maintenant. Et, bien sûr, il n'y a aucune envie de partager des informations utiles avec quelqu'un qui y va avec"C'est des trucs évidents, des papillons").

Ecoutez, si votre réponse à la question est : Beaucoup de trucs et astuces. Et puis, comme on l'a dit, toutes sortes de trucs et astuces.

Merci pour cette connaissance approfondie, qui n'est certainement pas une "huile de beurre".

Essayez de répondre sur des sites spéciaux comme SA ou CV, c'est intéressant de voir le nombre de plus que vous obtiendrez ...

Si cela vous dérange tant, vous pouvez toujours pleurer ;)

 
mytarmailS #:

Ecoutez, si votre réponse à la question est : Beaucoup de trucs et astuces. et en outre, comme vous l'avez dit, toutes sortes d'astuces et de techniques.

Merci pour cette connaissance approfondie, qui n'est certainement pas une "huile de beurre".

Essayez de répondre sur des sites spéciaux comme SA ou CV, c'est intéressant de voir le nombre de plus que vous obtiendrez ...

Si cela vous dérange tant que ça, vous pouvez toujours pleurer :))

Heureux que vous l'ayez aimé).

 
Valeriy Yastremskiy #:

Il ne peut alors y avoir que des hypothèses sur les causes et la présence d'un modèle. Les causes sont primaires, le comportement est secondaire. En AT, ils oublient parfois la primauté des causes et prennent les répétitions aléatoires de comportements pour des modèles, ce qui n'est pas le cas.

Je suis d'accord, c'est une question compliquée...

C'est pourquoi il faut se lancer dans les mathématiques pour avoir une réponse, et non pas "beaucoup de trucs et astuces".

 

1) Je pense qu'il est évident qu'il n'y a et ne peut y avoir aucun moyen de prouver qu'un modèle établi dans l'histoire fonctionnera nécessairement dans le futur.

2) L'existence d'une méthode qui établit un modèle déterministe (non aléatoire) pour le futur sur la base de données du passé serait une négation de (1).

Nous ne disposons que de la validation croisée, qui ne peut qu'établir l'homogénéité d'un modèle sur l'historique. Nous pouvons seulement interpoler le modèle, pas l'extrapoler. Nous n'avons qu'une très faible PROPOSITION selon laquelle un modèle bien interpolé se révélera être bien extrapolé. Il ne s'agit pas d'une inférence déductive, mais simplement inductive - une variante de l'inférence par analogie.

 
Aleksey Nikolayev #:

1) Je pense qu'il est évident qu'il n'y a et ne peut y avoir aucun moyen de prouver qu'un modèle établi dans l'histoire fonctionnera nécessairement dans le futur.

2) L'existence d'une méthode établissant le caractère déterminant (non aléatoire) d'un modèle pour l'avenir par des données du passé serait une négation de (1).


Alors, quelle est l'évidence de (1) et quels sont les arguments pour sa validité ?