L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1638

 
elibrarius:
Une explication trop courte.
Il n'est pas clair si un prédicteur est divisé à l'extérieur en plusieurs et alimenté déjà comme 5 prédicteurs. Au contraire, elle est toujours effectuée en interne sous forme de valeurs de fractionnement pré-calculées. Et ils divisent par secteurs.
Je reconnais que cette méthode est plus efficace que la demi-division de l'algorithme classique de l'arbre.

Que voulez-vous dire par extérieur ou intérieur ? Si je comprends bien, ils prennent un prédicteur et essaient de diviser ses indicateurs en segments afin de préserver un nombre suffisant d'activations et de donner à chaque segment un certain pouvoir prédictif, différentes méthodes sont utilisées pour cela - avec un pas donné ou avec une union linéaire de petits pas (pour simplifier), on obtient de telles cellules avec des plages. Lors de la construction de tous les arbres en formation, seuls les ensembles de ces cellules sont utilisés. Mais, ce n'est pas exact :)

Moi, par contre, j'essaie de combiner ces cellules en une seule. En regardant ce post hier, il y a une mention qu'ils font quelque chose de similaire pour les prédicteurs catégoriques.

Dans mon cas, il y a un risque de surentraînement - je vérifierai cela sur un échantillon un peu plus tard lorsque les modèles seront prêts, je ferai un échantillon pour le tester en même temps.

 

Il est assez déconcertant que le problème de la non-stationnarité soit presque totalement ignoré dans ce fil de discussion. Pour une raison quelconque, on suppose que les modèles trouvés dans le passé fonctionneront à l'avenir, et s'ils ne fonctionnent pas, c'est qu'il y a eu sur-apprentissage. Mais il est tout à fait possible que certains schémas cessent tout simplement de fonctionner avec le temps - progressivement ou même par bonds (par exemple à la suite d'une crise comme celle que nous traversons actuellement).

Le problème que je vois est que les modèles IO sont complexes et mal interprétés par les humains. S'ils commencent à avoir de mauvaises performances, il est impossible de distinguer (dans les modèles) la variante de sur-apprentissage de la variante de non-stationnarité. Dans l'analyse mécanique conventionnelle, vous pouvez toujours dire : "changement de tendance", "rupture de niveau/canal", etc.

 
Aleksey Vyazmikin:

Avec une femme comme ça, il y a de fortes chances que tu doives faire ta lessive et manger tes repas :)

Cela dépend de la façon dont vous la faites frire. Une femme pressée cuisine mieux :-)
 
Mihail Marchukajtes:
Cela dépend de la façon dont vous la faites frire. Une femme pressée cuisine mieux :-)

Vous ne vous en sortirez pas avec de la poésie avec une dame comme elle, vous devrez apprendre les maths au niveau MGO).

 
Aleksey Nikolayev:

Il est assez déconcertant que le problème de la non-stationnarité soit presque totalement ignoré dans ce fil de discussion. Pour une raison quelconque, on suppose que les modèles trouvés dans le passé fonctionneront à l'avenir, et s'ils ne fonctionnent pas, c'est qu'il y a eu sur-apprentissage. Mais il est tout à fait possible que certains schémas cessent tout simplement de fonctionner avec le temps - progressivement ou même par bonds (par exemple à la suite d'une crise comme celle que nous traversons actuellement).

Le problème que je vois est que les modèles IO sont complexes et mal interprétés par les humains. S'ils commencent à avoir de mauvaises performances, il est impossible de distinguer (dans les modèles) la variante de sur-apprentissage de la variante de non-stationnarité. Dans une analyse mécanique normale, il est toujours possible de dire : "changement de tendance", "rupture de niveau/canal", etc.

Je ne devine pas... La pratique montre une erreur de 1% sur le tracé d'entraînement et de 50% sur le nouveau tracé. C'est-à-dire que vous avez besoin de prédicteurs significatifs, et vous pouvez même vous entraîner avec un seul arbre ou une régression.

Un arbre, d'ailleurs, sera très facile à interpréter.

 
Aleksey Nikolayev:

Il est assez déconcertant que le problème de la non-stationnarité soit presque totalement ignoré dans ce fil de discussion. Pour une raison quelconque, on suppose que les modèles trouvés dans le passé fonctionneront à l'avenir, et s'ils ne fonctionnent pas, c'est qu'il y a eu sur-apprentissage. Mais il est tout à fait possible que certains schémas cessent tout simplement de fonctionner avec le temps - progressivement ou même par bonds (par exemple à la suite d'une crise comme celle que nous traversons actuellement).

Le problème que je vois est que les modèles IO sont complexes et mal interprétés par les humains. S'ils commencent à avoir de mauvaises performances, il est impossible de distinguer (dans les modèles) la variante de sur-apprentissage de la variante de non-stationnarité. Dans l'analyse mécanique conventionnelle, on peut toujours dire : "changement de tendance", "rupture de niveau/canal", etc.

Je suis tout à fait d'accord.

Je me suis souvent interrogé sur cette question et je pense qu'il est nécessaire de comparer les résultats du système avec son potentiel dans un certain domaine.

J'y pensais justement aujourd'hui, comment le faire mieux et de manière plus universelle. J'imagine que le processus d'apprentissage se compose de plusieurs étapes, dont la première est le marquage de l'échantillon, et vous pouvez le marquer sur la base de certaines stratégies de signal. Ces stratégies doivent être primitives mais ont un potentiel, par exemple, le croisement de la MA par le prix génère un signal d'entrée dans la direction de ce croisement ou vice versa. La formation n'est alors qu'un moyen de filtrer les faux signaux. Si l'on accepte cette hypothèse, on peut calculer le pourcentage d'efficacité de ce filtrage pour chaque intervalle de temps. Le plus simple serait de calculer la précision et l'exhaustivité de la classification par rapport à la stratégie de base. Il existe d'autres options - les métriques. Nous pouvons alors voir comment les performances du modèle évoluent, même s'il commence à perdre de l'argent.

 
Aleksey Nikolayev:

Il est assez déconcertant que le problème de la non-stationnarité soit presque complètement ignoré dans ce fil de discussion. Pour une raison quelconque, on suppose que les modèles trouvés dans le passé fonctionneront à l'avenir, et s'ils ne fonctionnent pas, c'est qu'il y a eu sur-apprentissage. Mais il est tout à fait possible que certains schémas cessent tout simplement de fonctionner avec le temps - progressivement ou même par bonds (par exemple à la suite d'une crise comme celle que nous traversons actuellement).

Le problème que je vois est que les modèles IO sont complexes et mal interprétés par les humains. S'ils commencent à avoir de mauvaises performances, il est impossible de distinguer (dans les modèles) la variante de sur-apprentissage de la variante de non-stationnarité. Dans une analyse mécanique normale, il est toujours possible de dire : "changement de tendance", "rupture de niveau/canal", etc.

J'ai de l'entraînement. Je n'ai remarqué aucun changement dans le mois qui a suivi la dernière formation, même après un important repli du bitcoin. La seule chose qui l'affecte est la période qui suit immédiatement le mouvement manipulateur de l'actif, pendant cette période le réseau neuronal est complètement perdu et parle de non-sens, plus on s'éloigne d'une telle tempête plus les prédicats deviennent adéquats.
 
Evgeny Dyuka:
Il y a la pratique. Dans le mois qui a suivi la dernière formation, je n'ai pas remarqué de changement, même après que le bitcoin ait été fortement rincé. La seule chose qui l'affecte est la période qui suit immédiatement le mouvement de l'actif manipulé, pendant cette période, le neurone est complètement perdu et affiche toutes sortes de déchets ; plus on s'éloigne de cette tempête, plus les prédictions deviennent adéquates.

- intéressant à regarder... puis-je obtenir un lien vers le canal dans un message privé ?

- avez-vous pu en créer un à la fin ?

 
onedollarusd:

- intéressant à regarder... Puis-je obtenir un lien vers la chaîne dans un message privé ?

- avez-vous réussi à en créer un par la suite ?

- non, utopie, beaucoup de temps et d'efforts, finalement sur le backtest le bot fait jusqu'à X5 par an sur une paire, mais en moyenne 1 fois par an tout se déverse. Sur le marché réel, cette situation, qui ne se produit qu'une fois par an, est appelée à se produire rapidement, en particulier lors de tempêtes comme celle-ci. Je ne crois plus aux bots entièrement automatisés, ça ne peut pas marcher, le marché s'adaptera et trichera de toute façon).

- celle-ci s'est mieux passée, nous avons un prototype fonctionnel maintenant.
Neuro estime pour BTCUSD les 10-30 prochaines minutes, cela dépend de la "confiance" du réseau. Plus le degré de confiance est élevé, plus la probabilité d'un entraînement d'environ 15 minutes est grande, plus le degré de confiance est faible, plus la prédiction est floue. Il n'y a pas de lien avec les bougies, la prédiction sort à chaque minute.

Si vous téléchargez Expert pour MT5, vous pouvez l'obtenir ici (pour ceux qui ont téléchargé Expert Advisor précédemment, vous pouvez le mettre à jour en utilisant ce lien, des corrections de bugs sont disponibles).
Il ne fonctionne que sur BTCUSD et seulement sur le temps M1, lisez l'instruction ci-dessous.

D'après cette visualisation, il est clair que les prédictions ne sont pas encore idéales, mais la formation n'en est qu'au stade initial, tout est à genoux. Il y a une compréhension de ce qu'il faut faire ensuite...

 
Elibrarius:
Je ne présume pas... La pratique montre une erreur de 1% sur la parcelle d'entraînement et une erreur de 50% sur la nouvelle parcelle. C'est-à-dire que vous avez besoin de prédicteurs significatifs, et vous pouvez même vous entraîner avec un seul arbre ou une régression.

Un arbre, d'ailleurs, serait très facile à interpréter.

Tout prédicteur a tendance à modifier sa signification au fil du temps. Il ne s'agit pas de leur inutilité, mais de la recherche constante de nouveaux éléments et de la préparation à la perte de signification de ceux trouvés auparavant.