L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 588

 
Yuriy Asaulenko:

Je me souviens que vous aviez environ 70% de prédictions adéquates. J'ai écrit le post ci-dessus.

Eh bien, 70% d'exactitude n'est rien du tout. Parmi les 70 % de personnes correctes pour entrer dans le métier, au moins un tiers environ. Il nous reste donc 23%. Il n'y a rien contre 30% de prédictions erronées (nous ne savons pas à l'avance si elles sont bonnes ou mauvaises). Et les prédictions erronées se trouvent pour ainsi dire dans les zones d'inflexion (changement de direction), et ces zones sont précisément les plus propices aux transactions.

Sur cette base, je crois qu'il est futile de s'engager dans la prédiction, mais plutôt dans la classification. C'est-à-dire déterminer si un certain moment est propice à la conclusion d'un accord. En utilisant des modèles, vous obtiendrez l'erreur d'entrée de 20-40%. J'ai donné des chiffres plus exacts plus tôt dans ce sujet.


La classification consiste à prédire l'appartenance à une classe, ou la probabilité d'appartenance.

Elle a le même effet que la régression, dont vous pouvez également extraire l'adhésion.

 
SanSanych Fomenko:

Il m'a convaincu que le problème de non-stationnarité n'a rien à voir avec le MO. Comme je n'ai jamais eu affaire à NS, je n'avais aucun argument pour réfuter son opinion. De plus, il y avait une compréhension intuitive que les différents arbres et autres, à l'exception de NS, fonctionnent parfaitement bien avec des prédicteurs non stationnaires.

Je me base sur l'axiome selon lequel il existe certaines régularités dans le comportement des prix, il s'agit d'un processus non-markovien. Et j'essaie de les trouver en utilisant le MO.

Différents modèles peuvent en effet séparer le bon grain de l'ivraie et trouver des régularités dans un flux de prix constitué principalement de bruit et de sa déformation intentionnelle par les centres de négociation.
Le problème est de trouver des paramètres pour l'entraînement du modèle (pour un neurone - le nombre de poids, la vitesse d'apprentissage, etc. ; et pour une forêt - le nombre d'arbres, par exemple) de sorte que le modèle ne se contente pas de mémoriser les exemples initiaux, mais qu'après avoir vaincu la non-stationnarité, il trouve des modèles stables dans tout ce bruit. Je trouve de bons paramètres pour l'entraînement du modèle par des validations croisées multiples.
En conséquence, mon modèle montre un résultat très faible mais positif à la fois sur les données de formation et les nouvelles données (R2 ~0.003). Mais je n'ai pas encore battu le spread.

 
Dr. Trader:

Je me base sur l'axiome selon lequel il existe des modèles permanents dans le comportement des prix, c'est un processus non-markovien. Et j'essaie de les trouver en utilisant le MO.

Différents modèles permettent de séparer le bon grain de l'ivraie et de trouver des modèles dans le flux de prix qui se compose en grande partie de bruit et de distorsion intentionnelle par les centres de négociation.
Le problème est de trouver des paramètres pour l'entraînement du modèle (pour un neurone - le nombre de poids, la vitesse d'apprentissage, etc. ; et pour une forêt - le nombre d'arbres, par exemple) de sorte que le modèle ne se contente pas de mémoriser les exemples initiaux, mais qu'après avoir vaincu la non-stationnarité, il trouve des modèles stables dans tout ce bruit. Je trouve de bons paramètres pour l'entraînement du modèle par des validations croisées multiples.
En conséquence, le modèle montre un résultat très faible mais positif à la fois sur les données de formation et les nouvelles données (R2 ~0.003). Mais je n'ai pas encore battu le spread.

Je n'ai pas gagné non plus, et jusqu'à présent, il n'y a pas de lumière. Mais le système fonctionne sur les FORTS.

SanSanych prévoit une heure d'avance. Il ne se soucie pas de cette propagation).

 

Il n'y a pas de problème de non-stationnarité pour les problèmes de classification. Il est réel pour les problèmes de régression.

Ne pas confondre prévision et prédiction. Prévoir et prédire sont des choses différentes. La prédiction en tant que résultat est une valeur numérique avec un intervalle de confiance. La classification prédit la classe à laquelle appartient l'exemple, la probabilité que l'exemple appartienne à la classe ou le soutien de l'hypothèse selon laquelle l'exemple appartient à la classe.

Bonne chance

 
Vladimir Perervenko:

Il n'y a pas de problème de non-stationnarité pour les problèmes de classification. Il est réel pour les problèmes de régression.

Ne pas confondre prévision et prédiction. Prévoir et prédire sont des choses différentes. La prédiction en tant que résultat est une valeur numérique avec un intervalle de confiance. La classification prédit la classe à laquelle appartient l'exemple, la probabilité que l'exemple appartienne à la classe ou le soutien de l'hypothèse selon laquelle l'exemple appartient à la classe.

Bonne chance


Que voulez-vous dire ? Où puis-je lire ces bêtises ? :)

 
Maxim Dmitrievsky:

Que voulez-vous dire ? Où puis-je lire ces bêtises ? :)

Qu'est-ce qui vous semble absurde ?
 
Vladimir Perervenko:
Qu'est-ce qui vous semble absurde ?

qu'en raison de la non-stationnarité, les modèles entre les prédicteurs, la cible et la prédiction de la classe se briseront comme dans le cas de la prévision.

 
Maxim Dmitrievsky:

qu'en raison de la non-stationnarité, les modèles entre les prédicteurs et la cible et la prédiction de classe se briseront comme dans le cas de la prévision.

Pouvez-vous me montrer un exemple ? Ou s'agit-il d'une conclusion spéculative ?

Dans les nombreuses publications sur la classification à l'aide de NN/DNN, la non-stationnarité n'est mentionnée nulle part comme un facteur d'influence. Mes nombreuses expériences me disent la même chose.

Bien sûr, vous êtes libre d'avoir votre propre opinion sur la question.

Bonne chance

 
Vladimir Perervenko:

Pouvez-vous me montrer un exemple ? Ou s'agit-il d'une conclusion spéculative ?

La littérature abondante sur la classification à l'aide de NN/DNN ne mentionne nulle part la non-stationnarité comme facteur d'influence. Mes nombreuses expériences me disent la même chose.

Bien sûr, vous êtes libre d'avoir votre propre opinion sur la question.

Bonne chance


Et classification ou régression... quelle est la différence ?

 

Il y a un nouveau bon livre sur l'apprentissage profond. Malheureusement je ne peux pas faire de lien ouvert, c'est sur rutracker.org.

Apprentissage profond
Année de publication: 2018
Auteur: Nikolenko S. I., Kadurin A. A., Arkhangelskaya E. O.
Genre ou thème: Réseaux neuronaux
Éditeur: Peter
Série: Programmer's Library
ISBN: 978-5-496-02536-2
Langue: russe
Format: PDF
Qualité: Texte reconnu avec des erreurs (OCR)
Table des matières interactive: Aucune
Nombre de pages: 479