L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3352

 

Incréments ordinaires avec décalage arbitraire. Pas de logarithmes ni de barres de zéro. La question portait sur les signes. Le principal problème est le faible rapport signal/bruit. Mais ils contiennent toute l'information.

Le téléphone des sourds évolue :)

Je ne lis pas du tout les articles récents, surtout les auteurs prolifiques sur l'eau, avec des cycles entiers de l'eau :)
 
Maxim Dmitrievsky #:

Incréments ordinaires avec décalage arbitraire . Pas de logarithmes ni de barres de zéro. La question portait sur les signes. Le principal problème est le faible rapport signal/bruit. Mais ils contiennent toute l'information.

En clair, toute l'information. Mais si nous utilisons les incréments entre les barres voisines, alors pour comprendre qu'il y a eu une tendance pour les 100 dernières barres, le modèle devrait additionner les 100 barres et obtenir l'incrément à partir de la barre 0. Et en l'alimentant à partir de 0 barre en une seule fois, nous lui facilitons la tâche.
Les réseaux neuronaux peuvent peut-être prendre en compte les 100 incréments et trouver une tendance, mais il est peu probable que des modèles en bois soient utilisés. Vous avez dit vous-même (et j'ai obtenu le même résultat) que les modèles fonctionnent mieux sur plusieurs caractéristiques (jusqu'à 10), et une tendance complète de 100 ne sera pas formée à partir de 10. Et outre les incréments, il peut y avoir des signes plus utiles.

C'est pourquoi mon décalage arbitraire pour les incréments est toujours à partir de 0 barre, de sorte que le modèle voit la tendance. Les incréments entre barres voisines ne sont jamais utilisés, car je les considère comme du bruit. Par exemple, un incrément de 0,00010 pt entre 120 et 121 barres, c'est-à-dire il y a 2 heures, quelle influence peut-il avoir sur la situation actuelle ? - Aucune.

 
Forester #:

Il est clair qu'ils le sont tous. Mais si nous utilisons les incréments entre les barres voisines, alors pour comprendre qu'il y a eu une tendance pour les 100 dernières barres, le modèle doit additionner les 100 barres et obtenir l'incrément à partir de la barre 0. Et en l'alimentant à partir de 0 barre en une seule fois, nous lui facilitons la tâche.
Les réseaux neuronaux peuvent peut-être prendre en compte les 100 incréments et trouver une tendance, mais il est peu probable que des modèles en bois soient utilisés. Vous avez dit vous-même (et j'ai obtenu le même résultat) que les modèles fonctionnent mieux sur plusieurs caractéristiques (jusqu'à 10), et une tendance complète de 100 ne sera pas formée à partir de 10. Et outre les incréments, il peut y avoir des signes plus utiles.

C'est pourquoi mon décalage arbitraire pour les incréments est toujours à partir de 0 barre, de sorte que le modèle voit la tendance. Les incréments entre barres voisines ne sont jamais utilisés, car je les considère comme du bruit. Par exemple, un incrément de 0,00010 pt entre 120 et 121 barres, c'est-à-dire il y a 2 heures, quelle influence peut-il avoir sur la situation actuelle ? - Aucune.

Une tendance est un déplacement de la moyenne des incréments. Elle figure donc également sur le graphique des incréments. Le problème posé par les attributs multiples s'explique du point de vue des facteurs de confusion, c'est-à-dire qu'il devient plus difficile de séparer l'influence de chaque attribut de celle de tous les autres. Après tout, chaque attribut introduit une erreur supplémentaire dans l'estimation finale. L'inférence causale devient plus compliquée et l'incertitude s'ajoute. Apparemment, il existe une certaine limite à la complexité du modèle des connaissances nouvelles, qui dépend du rapport signal/bruit.

Le décalage des incréments est directement lié à la durée de l'échange prédit en barres. Par exemple, si la durée est d'une barre, il est préférable de prendre des incréments avec un petit décalage et une petite profondeur de fenêtre. Lorsque la durée des transactions augmente, le décalage des incréments augmente aussi naturellement. Et l'écart s'en ressent bien sûr.
 

J'aiécrit un Expert Advisor qui enregistre les données de chaque tick et forme un fichier csv avec les données, et à côté j'ai exécuté un réseau neuronal qui analyse ce fichier, effectue un entraînement et, sur la base de la dernière ligne du premier fichier, produit une prévision de l'endroit où le prix ira et de combien de points. Écrit en python. Je voudrais savoir qui a déjà fait quelque chose de similaire et quelles données peuvent être apprises pour couvrir l'ensemble du tableau. Maintenant l'expérience est basée sur 'Ouverture', 'Maximum', 'Minimum', 'Clôture', 'Volume'.

Je ne sais pas comment insérer un écran.

 
Андрей écrit un Expert Advisor qui enregistre les données de chaque tick et forme un fichier csv avec les données, et à côté j'ai démarré un réseau neuronal qui analyse ce fichier, effectue un entraînement et, sur la base de la dernière ligne du premier fichier, produit une prévision de l'endroit où le prix ira et de combien de points. Écrit en python. Je voudrais savoir si quelqu'un a déjà fait quelque chose de similaire et quelles données peuvent être apprises pour couvrir l'ensemble du tableau. L'expérience est maintenant basée sur 'Ouverture', 'Maximum', 'Minimum', 'Clôture', 'Volume'.

Je ne sais pas comment insérer un écran.

enregistrer et analyser les ticks de TOUTES les paires de devises et métaux.

ajouter l'heure de la journée, le jour de la semaine

classification des nouvelles attendues

secondes avant la nouvelle

classification des nouvelles passées

secondes après les nouvelles

===

en général, de quoi s'occuper avec python :-)

 
Nous n'avons pas encore parcouru tous les MO, nous ne pouvons donc pas vous donner d'indice :)
 
Maxim Dmitrievsky #:
Nous n'avons pas encore maîtrisé tous les OI, nous ne pouvons donc pas vous le dire d'emblée :)

Pourquoi maîtriser tous les MO ? Il y a plusieurs centaines de modèles à eux seuls... Et les modèles ne représentent clairement pas la moitié du problème.

Peut-être faudrait-il maîtriser quelques modèles, mais apprendre à obtenir systématiquement une erreur de classification de moins de 20 % pour les OOV et les OOS ? Tout en ayant à la base la preuve qu'il n'y a pas de sur-apprentissage, en regardant vers l'avenir et, plus important encore, la preuve de l'erreur de classification qui en résultera à l'avenir ?

 
СанСаныч Фоменко #:

Pourquoi maîtriser tous les MoD ? Il y a plusieurs centaines de modèles à eux seuls... Et les modèles ne représentent clairement pas la moitié du problème.

Que diriez-vous de maîtriser quelques modèles, mais d'apprendre à obtenir constamment à peu près la même erreur de classification sur les OOV et les OOS, c'est-à-dire moins de 20 % ? Tout en ayant à la base la preuve qu'il n'y a pas de sur-apprentissage, en regardant vers l'avenir et, plus important encore, la preuve de l'erreur de classification qui en résultera à l'avenir ?

Sous tous les OI se trouvent des approches et des pratiques communes. Par exemple, peut-on obtenir des probabilités de classe pour une classification binaire ? Si oui, de quelle manière ?
 
Maxim Dmitrievsky #:
Sous tous les ME se trouvent des approches et des pratiques communes. Par exemple, pouvez-vous obtenir des probabilités de classe pour une classification binaire ? Si oui, de quelle manière ?

Je n'arrive pas à penser immédiatement à des paquets qui ne produisent PAS de probabilités de classe. J'avais donc l'impression que c'était la norme.

 
СанСаныч Фоменко #:

Je ne peux pas penser immédiatement à des paquets qui n'émettent PAS de probabilités de classe. Il m'a donc semblé que c'était la norme.

La pensée par lots est à la mode. Il ne s'agit pas de ces probabilités, elles sont appelées ainsi à cause du loess phs appliqué, pour l'estimation de la vraisemblance.

Comment obtenir de vraies probabilités de classe ?