L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3101

 

Si nous mesurons le pourcentage de signaux d'un type donné au cours de chaque mois de l'échantillon pour un segment quantique distinct et que nous soustrayons le pourcentage moyen de signaux rentables et que nous établissons un bilan sur les données, nous pouvons constater ce qui suit.

Il s'agit du segment quantique sélectionné selon ma méthode, et ce que nous voyons, c'est que du 38e mois au 127e mois, il y avait une tendance stable, puis les fluctuations ont commencé.

Il s'avère donc que si l'échantillon est divisé selon la méthode classique 60+20+20, nous apprendrons et tout ira bien jusqu'à environ 100 mois, puis à 40 mois - jusqu'à 140 - nous serons dans le positif et dès l'échantillon indépendant pour le test, nous constaterons un mouvement à la baisse avec un rebond. En même temps, nous pouvons voir qu'il y a eu des mouvements similaires sur l'échantillon d'entraînement avant le 38e mois, mais quel modèle les prendra en compte et trouvera une "explication" à ces fluctuations ? Un modèle en bois ordinaire commencera à extraire un morceau de l'ensemble de l'échantillon, alors qu'il est nécessaire de ne prêter attention qu'à une partie de celui-ci.

C'est à cela que je pense, à une manière de construire un modèle qui tiendrait compte des nuances décrites ci-dessus - et qui effectuerait des divisions non pas sur l'ensemble de l'échantillon, mais comme pour prendre en compte séparément les changements dans chaque section après la même division.

Peut-être suis-je en train de réinventer la roue et existe-t-il déjà une solution ? J'ai déjà esquissé le système sur papier, mais le code est encore loin....

 

Voici à quoi ressemble l'histogramme (selon la version excel)

Vous pouvez voir qu'il y a des mois où les modèles n'ont pas fonctionné.... et qu'ils devraient être expliqués par d'autres fractionnements, mais de préférence en les supprimant là où ils s'accumulent.

 

Et ce que je veux, si ce n'est entraîner le modèle de manière intensive, c'est au moins détecter à l'avance, peut-être de manière probabiliste, la section de changement d'un changement positif dans le segment quantique de la probabilité d'un résultat favorable à un changement négatif.

Nous pensons ici à la cible, l'échantillon est déjà en train de se former.

 

Si nous représentons le pourcentage du delta des résultats positifs et négatifs dans le segment quantique pour un mois par +1/-1, le graphique a déjà cette image - et il semble déjà plus intéressant.


 
Il y a un coupeur de merde quantique dont les performances sont médiocres quelque part, que faire ? moyennez ses signaux en fonction des nouvelles données où ses performances sont médiocres, de manière à ce qu'il ne soit pas aussi médiocre à cet endroit, mais aussi moins bon sur les données passées.
Quelle est la question, c'est la réponse, ne soyez pas désolés.
 
Maxim Dmitrievsky #:
Il y a une coupe de merde quantique qui donne de mauvais résultats quelque part, que faire ? Faire la moyenne de ses signaux en tenant compte des nouvelles données où elle a donné de mauvais résultats, de sorte qu'elle ne donne pas de mauvais résultats là, mais pas non plus de bons résultats sur les données antérieures.
Quelle est la question, c'est la réponse, ne soyez pas désolé.

Moyenne, soustraction et division :)

Quoi qu'il en soit, si je comprends bien, vous suggérez de changer la cible sur le site où se trouve le "mauvais" signal ?

 
Valeriy Yastremskiy #:

Alexei Nikolaev, dans des blogs sur R, a mis en œuvre un modèle du jeu Cafe, ou la victoire de la minorité, similaire en termes de marché, si la position du joueur est dans une société avec moins de participants, il gagne (dans le café, selon la date, les joueurs qui sont venus le jour avec le plus petit nombre de visiteurs gagnent, et avec un grand nombre de visiteurs perdent), mais ce modèle est trop simple, dans la vie réelle il y a encore beaucoup de types de joueurs, allant de l'État et d'autres grands joueurs et de petits joueurs, qui sont un grand nombre. Le modèle n'est même pas encore créé dans ses grandes lignes.)

Mais les graphiques sont même très similaires à ceux du tic-tac.

Le modèle SB de fixation des prix est une variante de base, limitative, qui ne se produit apparemment jamais dans la réalité, comme un analogue de la physique - un gaz idéal. Ce modèle est obtenu sous deux conditions : a) un grand nombre de participants ; b) une indépendance absolue de leurs stratégies de négociation par rapport aux autres participants. Il est clair que la deuxième condition est difficile à remplir, nous pouvons donc étudier comment les écarts par rapport au modèle SB seront influencés si, par exemple, il y a plusieurs groupes (clusters) de participants avec des stratégies différentes sur le marché. Ou si une partie des participants dispose d'informations privilégiées. Par définition, il est impossible de gagner de l'argent sur le SB pur, vous ne pouvez gagner de l'argent que sur les écarts par rapport à ce modèle.

 
mytarmailS #:

Personnellement, je ne vois pas du tout l'utilité du modèle SB.

Il ne donne rien, il ne souligne pas les bonnes propriétés, il ne supprime pas les mauvaises propriétés, il ne simplifie pas.

Oui, le graphique ressemble à des prix, et alors ?

Le modèle SB lui-même est bien sûr peu utile, il n'est utile que lorsque des écarts par rapport au modèle sont diagnostiqués.

 
Maxim Dmitrievsky #:

J'appelle stationnarité le terme économétrique habituel : constance de la moyenne et de la variance. Les marchés n'en ont naturellement pas, ils ne sont pas un "monument". L'hétéroscédasticité est supprimée, le reste est proche de SB.

En général, le type de distribution ne dit pas grand-chose sur la prévisibilité. Il s'agit d'un jeu mathématique, éloigné de la négociation. Ajoutez un peu de fluidité à la cotation qui couvre l'écart. Ou un retour régulier à la moyenne à certains moments de la journée. L'écart ne changera pas et il sera possible de gagner de l'argent. En gros, on peut appeler cela de l'inefficacité. Pour ce faire, il faut écrire des algorithmes qui tiennent compte du fait qu'on ne peut pas tout prévoir et qu'il n'est pas nécessaire de le faire. Je ne dirais pas qu'il existe une telle malédiction, mais simplement qu'il existe des outils très efficaces dont on ne peut rien tirer.

Bien sûr, mais si vous construisez des modèles de prix avec des écarts compréhensibles par rapport au SB, vous pouvez alors, par exemple, générer des cotations artificielles sur cette base, même pour un millier d'années. Ensuite, sur cette cotation, on apprend, à l'aide de MO, à déterminer les endroits où il y a eu des écarts, puis on essaie de faire la même chose sur des cotations réelles. Autre possibilité.

 
sibirqk #:

Le modèle SB lui-même est bien sûr peu utile, il ne l'est que lorsque des écarts par rapport à ce modèle sont diagnostiqués (trouvés).

Alexei Nikolaev a dit la même chose.
Quel est le nom de cette approche ?