L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 426

 
Ivan Negreshniy:

Vous avez raison, prévoir l'indicateur est redondant. Mais prédire le prix est également redondant, car l'objectif de la stratégie de trading n'est pas le prix mais le profit.

En suivant cette logique, nous ne devrions pas modéliser les indicateurs ni les graphiques de prix, mais le comportement du trader, et la meilleure fonction cible serait les indicateurs de son trading rentable.

En pratique, vous devez prendre l'historique des transactions ou exécuter le conseiller expert dans le testeur de stratégie et apprendre le modèle avec les modèles de prix comme entrée et les transactions comme sortie.

Le "profit" est donc le rendement (rentabilité, rendement), c'est-à-dire l'augmentation du prix normalisé par savaleur absolue, et c'est le fameux indicateur "Momentum", en connaissant le futur Momentum, vous êtes le maître de l'univers.

 
Maxim Dmitrievsky:

Et ce qui est discuté ici maintenant est une sorte d'application de maternelle du zigzag ou non, quelle différence diable cela fait-il si l'approche de prévision elle-même est fausse dès le départ (c'est-à-dire qu'elle ne mènera pas au succès) :)

C'est vrai, la question est dans les détails, ne soyez pas trop pressé. Et cet "enfantillage" ne concerne pas seulement le zigzag, c'est un véritable piège...

 
Aliosha:

Je n'ose pas le faire, ni dans votre attitude ni dans celle des autres. Vous n'êtes pas seul dans votre délire.

Il y a beaucoup de sens dans ce que vous avez écrit, l'article est génial, je le dis sincèrement, brièvement et de manière concise. Mais il y a un petit défaut, et je l'ai signalé, car j'ai moi-même été longtemps trompé de la même manière.


Laissez-moi essayer d'expliquer ma position une fois de plus.


L'article que vous mentionnez est du matériel promotionnel pour l'apprentissage automatique : il montre que le concept d'apprentissage automatique comprend non seulement des modèles mais aussi la préparation des données pour le modèle et l'évaluation du modèle. Il montre également que toute personne intéressée par l'apprentissage automatique peut s'y essayer avec un minimum d'efforts.


Mes pensées ne sont pas du tout dans l'article. C'est une publicité.


Ce que je pense de ce fil de discussion et d'autres fils de discussion du forum, c'est que l' élément principal et fondamental de l'apprentissage automatique n'est PAS le modèle, mais le raisonnement selon lequel"les prédicteurs sont pertinents pour la variable cible".

C'est la "pertinence", et non la cible elle-même ou un ensemble spécifique de prédicteurs. Cela dit, je donne mon propre sens à la signification de "avoir une relation", différent de celui défini par "l'importance des prédicteurs".

Je n'ai jamais fait de publicité ni justifié l'utilisation de ZZ nulle part : je l'ai simplement utilisé dans mes exemples comme le plus important des prédicteurs. J'ai également indiqué que pour mon propre ensemble de prédicteurs, j'obtiens moins de 30 % d'erreur de prédiction - pas un mauvais résultat, je dois dire.

Mais encore une fois : ce résultat est obtenu parce que je suis capable de filtrer les prédicteurs et de laisser de côté ceux qui sont "pertinents" pour la variable cible. Dans mon exemple, à la ZZ. Mais pour ma méthode, la cible n'a pas d'importance, c'est l'ensemble "cible-prédicteurs" qui compte.

 
SanSanych Fomenko:

En dehors de cela, j'ai également souligné que pour moi personnellement, pour l'ensemble des prédicteurs dont je dispose, j'obtiens une erreur de prédiction inférieure à 30 % - un très bon résultat, je dois dire.

Mais encore une fois : ce résultat est obtenu parce que je suis capable de filtrer les prédicteurs et de laisser de côté ceux qui sont "pertinents" pour la variable cible. Dans mon exemple, à la ZZ. Mais pour ma méthode, la cible ne compte pas, c'est l'ensemble des "prédicteurs de la cible" qui compte.

Ce n'est pas un mauvais résultat, c'est fantastique, je suis sûr que même Renaissance ne s'en approche pas, avec leurs téraoctets de données par jour. Regardez le live-score sur numer.ai et pensez pourquoi ils ont au moins 45% d'erreur(logloss~0.69) et vous 30%.

Mais ce que vous dites est vrai, vous avez créé votre fonction cible synthétique, qui est fonctionnellement liée aux caractéristiques d'une manière intelligente (évidemment pas évidente pour vous) et vous avez un si beau scan sur Lorn et test et tout semble correct... Mais pourquoi n'êtes-vous pas encore milliardaire, alors que vous pourriez facilement le devenir en un an environ si vous aviez 30% d'erreur dans la prédiction de la couleur de la prochaine bougie, parce que vous ne prédisez pas le futur mais le passé mélangé au futur via un indicateur. Essayez de prédire un futur pur rapatrié et tout se mettra en place.

 
Aliosha:

Ce n'est pas un mauvais résultat, c'est un résultat fantastique, je suis sûr que même Renaissance ne s'en approche pas, avec ses téraoctets de données par jour. Regardez le live-score sur numer.ai et réfléchissez pourquoi ils ont au moins 45% d'erreur(logloss~0.69) et vous 30%.

Mais ce que vous dites est vrai, vous avez créé votre fonction cible synthétique, qui est fonctionnellement liée aux caractéristiques d'une manière intelligente (évidemment pas évidente pour vous) et vous avez une si belle jauge sur Lorn et test, tout semble correct... Mais vous n'êtes pas encore milliardaire, bien que vous pourriez facilement le devenir dans environ un an si vous aviez 30% d'erreur dans la prédiction de la couleur de la prochaine bougie, c'est parce que vous ne prédisez pas le futur mais le passé mélangé au futur via un indicateur. Essayez de prédire un pur rendement futur et tout se mettra en place.

ZZ est une mauvaise variable cible car le début et la fin de son épaule ont le même poids. Si vous prenez la variable cible AVANT le renversement et APRÈS le renversement ZZ, je n'ai pas pu trouver de prédicteurs pour une telle variable cible - tous les prédicteurs que je connais pour une telle variable cible ne sont que du bruit. J'ai collaboré avec l'un des membres du forum sur ce sujet, il a sa propre série de prédicteurs, et nous avons tous deux le même résultat.

Je ne suis pas milliardaire pour une raison très simple : l'estimation du modèle d'apprentissage automatique pour mon modèle avec une cible à ZZ (ces 30 %) n'est pas pertinente pour les résultats dans le testeur, car cette erreur est distribuée arbitrairement le long de l'épaule ZZ, c'est-à-dire que les faux signaux sont mélangés aux vrais. Je négocie des tendances, il semble, mais je prédis la prochaine bougie. Pour surmonter cette contradiction, j'ai un conseiller expert qui a négocié avec succès pendant plus d'un an et qui, le 7 octobre, a fait sauter un stop qui fixait le niveau de risque maximum.

Mais c'est du trading de tendance.

Vous continuez à suggérer de négocier des DIVERS, et non des tendances. C'est un métier différent et il existe des modèles mieux conçus pour cela - GARCH. Extrêmement bien développé, beaucoup d'outils prêts à l'emploi, des tas d'exemples pour le trading sur les marchés financiers, y compris le forex. C'est ce que je fais maintenant. Participez.


PS.

A propos de l'avenir de la ZZ.

Vous devez écrire avec soin. Lorsque vous vous entraînez, sur l'historique, vous avez toujours une valeur jusqu'à la dernière barre, à l'extrême droite. Ce n'est pas le cas des EA : sur le côté droit de ZZ, il y a toujours une épaule non formée, et de plus, l'épaule précédente peut aussi être dépassée. Par conséquent, nous devons tirer les leçons de l'histoire. Passez ensuite à un nouveau fichier et ré-entraînez-le au fur et à mesure que vous avancez dans le graphique, en ne tenant compte que des valeurs ZZ déjà formées. Et cela représente 100 bars ou plus de décalage. Et pas de "peeking", mais le contraire de "lagging".

 

Je vais résumer pour que ce soit clair pour beaucoup .....

Il existe en effet des fonctions cibles complexes, ou plutôt le chercheur décide que le problème se trouve dans la variable de sortie et commence à la compliquer. Ça arrivait, je le faisais aussi. Mais avec le temps, j'ai compris qu'il n'était pas nécessaire de le faire, qu'il suffisait de prévoir le changement de prix et que si cela ne pouvait être fait avec un niveau de qualité approprié, alors une production plus compliquée ne sauverait pas la situation.

Quant à la courbe d'équilibre, elle est une conséquence de la qualité de la formation. C'est le type de cette courbe qui détermine la qualité de l'apprentissage. Deux conditions.

Croissanceuniforme de la courbe d'équilibre à un angle de 45 degrés

Absence de forts sauts et de chutes.

Comme cela....

 
SanSanych Fomenko:

ZZ est une mauvaise variable cible car le début et la fin de son épaule ont le même poids. Si nous prenons la variable cible AVANT le renversement et APRÈS le renversement ZZ, je n'ai pas pu trouver de prédicteurs pour cette variable cible - tous les prédicteurs que je connais pour cette variable cible ne sont que du bruit. J'ai collaboré avec l'un des membres du forum sur ce sujet, il a sa propre série de prédicteurs, et nous avons tous deux le même résultat.

Je ne suis pas milliardaire pour une raison très simple : l'estimation du modèle d'apprentissage automatique pour mon modèle avec une cible à ZZ (ces 30 %) n'est pas pertinente pour les résultats dans le testeur, car cette erreur est distribuée arbitrairement le long de l'épaule ZZ, c'est-à-dire que les faux signaux sont mélangés aux vrais. Je négocie des tendances, il semble, mais je prédis la prochaine bougie. Pour surmonter cette contradiction, j'ai un conseiller expert qui a négocié avec succès pendant plus d'un an et qui, le 7 octobre, a fait sauter un stop qui fixait le niveau de risque maximum.

Mais c'est du trading de tendance.

Vous continuez à suggérer de négocier des DIVERS, et non des tendances. C'est un métier différent et il existe des modèles mieux conçus pour cela - GARCH. Extrêmement bien développé, beaucoup d'outils prêts à l'emploi, des tas d'exemples pour le trading sur les marchés financiers, y compris le forex. C'est ce que je fais maintenant. Participez.


PS.

A propos de l'avenir de la ZZ.

Vous devez écrire avec soin. Lorsque vous vous entraînez, sur l'historique, vous avez toujours une valeur jusqu'à la dernière barre, à l'extrême droite. Ce n'est pas le cas des EA : sur le côté droit de ZZ, il y a toujours une épaule non formée, et de plus, l'épaule précédente peut aussi être dépassée. Par conséquent, nous devons tirer les leçons de l'histoire. Passez ensuite à un nouveau fichier et ré-entraînez-le au fur et à mesure que vous avancez dans le graphique, en ne tenant compte que des valeurs ZZ déjà formées. Et cela représente 100 bars ou plus de décalage. Et pas de "peeking", mais le contraire du lagging.


En ce qui concerne l'incohérence des résultats du "testeur" et de la prédiction que j'ai écrite ci-dessus, si je prédis les retours, tout s'accorde parfaitement, j'y pense depuis longtemps, mais je ne suis pas sûr d'avoir le temps de formaliser mathématiquement la fonction de dépendance de la prévision ML en ratio de Sharpe, je suis sûr qu'elle se reflète de manière univoque, car la relation empirique est plutôt sans ambiguïté. Techniquement, le résultat du "testeur" n'est pas très différent d'une simple convolution (produit scalaire) d'un certain nombre de prédictions sur les rendements réalisés (pardonnez-moi les HFT), par conséquent, plus les prédictions sont corrélées avec les rendements, meilleurs sont les résultats du testeur, les véritables différences dans les coûts de transaction. Bien sûr, cette fonction (predict2Sharp) ne sera pas basée sur la précision mais sur la perte de logarithme, puisque le nombre de suppositions en lui-même est moins important que multiplié par les retours qui ont été supposés.


À propos de GARCH , pour autant que je sache, il s'agit d'un modèle linéaire pour prédire la volatilité, il ne prédit pas la direction du marché, ou bien ai-je tort ?

 
Aliosha:

Quant à l'incohérence des résultats et des prédictions du "testeur", j'ai écrit ci-dessus pourquoi, si vous prédisez les retours, tout s'adapte parfaitement, depuis longtemps mûrit l'idée, mais je ne peux pas obtenir le temps, formaliser mathématiquement la fonction de dépendance prédiction ML dans le ratio de Sharpe, je suis sûr qu'il ya un affichage sans ambiguïté, parce que la relation empirique est tout à fait sans ambiguïté. Techniquement, le résultat du "testeur" n'est pas très différent d'une simple convolution (produit scalaire) d'un certain nombre de prédictions sur les rendements réalisés (pardonnez-moi les HFT), par conséquent, plus les prédictions sont corrélées avec les rendements, meilleurs sont les résultats du testeur, les véritables différences dans les coûts de transaction. Bien sûr, une telle fonction (predict2Sharp) ne sera pas basée sur la précision mais sur la perte de logarithme, puisque le nombre de suppositions en lui-même est moins important que multiplié par les retours qui ont été supposés.


À propos de GARCH , pour autant que je sache, il s'agit d'un modèle linéaire pour prédire la volatilité, il ne prédit pas la direction du marché, ou est-ce que je me trompe ?


J'avoue avoir essayé d'utiliser les coefficients de Sharpe, Sortino, etc. pour classer un signal de la stratégie sous-jacente et je suis arrivé à la conclusion que tous ces coefficients sont la conséquence de la stratégie sous-jacente. C'est-à-dire que le résultat de Sharp est exactement le même, car le signal a clôturé avec tel ou tel profit et non sur le dépassement...... Bien que je ne sois pas un très bon programmeur, il se peut que j'aie calculé ces coefficients par erreur. Mais mon Sharp était dans la fourchette de -2 à 2. Donc je pense que j'ai bien compris. ....

 
Mihail Marchukajtes:

J'avoue que j'ai essayé d'utiliser Sharpe, Sortino, etc. pour classer le signal de la stratégie sous-jacente et je suis arrivé à la conclusion que tous ces coefficients sont une conséquence de la stratégie sous-jacente. C'est-à-dire que le résultat de Sharp est exactement le même, car le signal a clôturé avec tel ou tel profit et non sur le dépassement...... Pour être franc, je suis un très mauvais programmeur, il se peut donc que j'aie calculé ces coefficients par erreur. Mais mon Sharp était dans la fourchette de -2 à 2, donc je pense que j'ai bien compris. ....

Il existe de nombreux SR génériques, mais le SR classique est la mesure la plus simple et la plus courante pour évaluer la performance d'une stratégie/un trader/un fonds. SR <1.5 est considéré comme merdique, >=2 est génial !

Le SR est en gros le rapport entre le profit et le risque, en termes quantitatifs.
 
Aliosha:

Il existe de nombreux SR génériques, mais le SR classique est la mesure la plus simple et la plus courante pour évaluer la performance de la stratégie de fonds d'un trader. SR <1.5 est considéré comme effrayant, >=2 est génial !

Le SR est en gros le rapport entre le profit et le risque, d'un point de vue quantitatif.

En principe, cela n'a pas d'importance. Il n'y a aucun pouvoir prédictif là-dessus.....