L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1744
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
C'est moi qui vous ai montré ce paquet, rappelez-vous, quand je vous ai demandé de faire un script pour mt4, il y avait un neurone du paquet nnfor, et la cible était PIP- Perceptually Important Points (repr_pip) de TSrepr :)
Vladimir ! J'ai quelques questions, si je peux me permettre...
1) Dites-moi quelle erreur maximale vous avez réussi à obtenir sur la classification de la direction zigzag sur l'EURUSD ? Et avez-vous utilisé noisefilter en le faisant ?
2) La "discrétisation" des prédicteurs, que vous avez décrite dans vos articles, détériore-t-elle la qualité de l'apprentissage ?
3) Je veux essayer de faire une sorte de méta-apprentissage, au niveau le plus bas, l'essentiel de l'idée est la suivante :
n1. former un prévisionniste sur les données
n2. nous extrayons toutes les règles que Forest a générées et les soumettons en tant que nouveaux prédicteurs ; chaque règle est un prédicteur, nous avons donc 500-1000 règles. Les prédicteurs semblent "clairsemés" mais que faire ?
P.3 Entraîner un nouveau modèle sur les règles du prédicteur...
L'idée est de
1) augmenter le nombre de prédicteurs
2) obtenir des règles plus complexes et plus profondes, c'est-à-dire des règles plus hiérarchiquement complexes
3) Forest montre la prédiction comme la somme de toutes les règles (arbres), je pense que si nous ne considérons pas la somme de toutes les règles mais les règles séparément, alors nous pouvons mieux séparer les étiquettes de classe, peut-être trouver des combinaisons uniques de règles, etc.
La question est la suivante : ce que je viens d'écrire n'est-il pas l'habituel boosting de gradient ?
4) Et aussi, où trouver les indicateurs spectraux que vous utilisez : satl, fatl, etc.
1. Je me souviens de cette histoire de paquet. Paquet prometteur.
2 Le meilleur résultat avec l'ensemble ELM est Acc=0.8+-0.1. Cela peut être fait non seulement avec lenoisefilter. La précision n'est pas l'indicateur de qualité le plus important pour les CT. Pour nos besoins, il est plus important d'avoir la récompense moyenne maximale par barre sur un intervalle de temps particulier.
3. La discrétisation élimine le problème des valeurs aberrantes et rend la relation entre les prédicteurs et la cible plus linéaire. Mais je n'ai pas encore reçu d'amélioration significative de la qualité de la classification. Je vais continuer à creuser dans cette direction. De nombreuses nouvelles techniques ont vu le jour.
4. Je ne comprends pas pourquoi tu t'es embourbé dans une simple forêt. La zone est maintenant déneigée de haut en bas. Il existe des dizaines de nouvelles options RF. Le dernier exotique et encore brut est gensemble. Une forêt dans les nœuds de laquelle n'importe quel modèle peut être imbriqué, pas seulement un arbre de décision.
Essayez les solutions prêtes à l'emploi, inutile de réinventer la roue, mieux vaut apprendre à bien utiliser les solutions toutes faites.
Je suis en train d'implémenter un paquet d'intégration Python avec MT5, dommage qu'ils aient arrêté l'intégration avec R.
Bonne chance
2. le meilleur résultat avec l'ensemble ELM est Acc=0.8+-0.1. le traitement des échantillons de bruit est obligatoire. Cela peut être fait non seulement avec lenoisefilter.
Regardez, voici les résultats du xgboost.
zigzag, classification, horloge eura, sans suppression des échantillons de bruit, prédicteurs (pca et indicateurs), pas de préparation des données, il suffit de tout empiler et de partir.
erreur sur OOS
Donc les arbres sont bons aussi, et si on enlève le bruit...
La précision n'est pas le facteur de qualité le plus important pour le TS. Pour nos besoins, il est plus important de connaître la récompense moyenne maximale par barre sur un certain intervalle de temps.
Et comment l'exprimer en tant que variable cible ?
3. La discrétisation élimine le problème des valeurs aberrantes et rend la relation entre les prédicteurs et la cible plus linéaire. Mais je n'ai pas encore obtenu d' amélioration significative de la qualité de la classification. Je continue à creuser dans cette direction. De nombreuses nouvelles techniques sont apparues.
L'essentiel est de ne pas aggraver la situation, j'ai personnellement besoin d'une discrétisation pour la transformation en données catégorielles, de préférence sans perte d'information. Là encore, tout cela est nécessaire pour créer des règles.
4. Je ne comprends pas pourquoi vous vous embourbez dans une simple forêt.
Je suis plutôt embourbé dans les règles décisives en général... Vous vous intéressez aux modèles de recherche, je le comprends, mais je m'intéresse au processus lui-même et c'est là que l'interprétabilité est nécessaire.
L'"apprentissage standard" que vous et (99,9% des autres) faites a un défaut par rapport au marché.
Par "apprentissage standard", j'entends que les données sont représentées sous la forme d'une matrice (une ligne est un ensemble de formation avec une étiquette de classe), et ce modèle ne voit rien d'autre que la ligne de la matrice.
Si nous imaginons que le marché est un modèle piloté par les événements, et je suis sûr qu'il l'est, alors modélisons une situation.
si événement 1puis événement 2 puis événement 3 puis Y == 1
Comme vous voyez cette règle )))) (c'est une autre réponse à la raison pour laquelle je me suis embourbé dans les règles)
Et si l'événement 1 s'est produit il y a une semaine et l'événement 2 hier ?
Et si l'événement 1 peut se produire il y a une semaine et il y a 5 min ceux qui ne sont pas réguliers, et ainsi avec chaque événement, la chose principale que les événements se produisent et dans le bon ordre.
Aucun AMO ne trouvera jamais ces régularités lorsque les données se présentent sous la forme d'une matrice avec des données tracées selon la méthode de la fenêtre glissante.
Alors c'est ce que je dis, hein ... Comment pouvez-vous rechercher des modèles qui se produisent sur une période de temps non régulière ?
Voici ma tentative de trouver quelque chose qui devrait essayer de répondre à ces questions
la recherche de règles associatives - le paquet arules.
Vous pouvez trouver de telles règles avec lesquelles Y est associé et quelle que soit la séquence dans laquelle ces règles se produisent
recherche de séquences de règles associatives arules seqence
On peut trouver de telles règles avec lesquelles Y est associé, mais en tenant compte de la séquence de ces règles.
Analyse approfondie et regroupement de séquencesTraMineR
Génération de règles génétiques SDEFSR
L'essence du paquet n'est pas de prédire Y mais de l'expliquer, un algorithme qui tente d'expliquer quels événements doivent se produire dans la matrice d'apprentissage pour que Y apparaisse.
En théorie, toutes ces approches devraient améliorer considérablement le potentiel de nos capacités de prédiction actuelles.
Et comme vous pouvez le constater, tous ces éléments sont basés sur des règles logiques).
Sujet intéressant. Bien que je ne sois pas mathématicien et loin de l'apprentissage automatique, je vois où est le problème. Et je sais comment le réparer. Il est impossible de créer un système auto-apprenant si nous ne savons pas quand le marché commence à bouger, s'il commence tout court, et s'il commence quand il se termine et s'il est possible de faire des bénéfices sur ce mouvement. Nous devons créer un modèle qui fonctionne, c'est-à-dire un système rentable. Et ensuite, à partir de là, définir l'algorithme de comparaison et d'amélioration du système. J'ai suivi cette voie et créé un algorithme simple, mais pour le trading manuel. Voir le sujet d'intérêt Comment multiplier votre compte par 1000.https://www. mql5.com/ru/forum/330313
J'ai parcouru la moitié de ce fil, mais je n'ai toujours pas compris l'essentiel).
J'ai parcouru la moitié de ce fil de discussion et je ne comprends toujours pas de quoi il s'agit).
le fait est qu'une seule série a une probabilité différente d'une série d'ensemble et peut être n'importe quoi.
J'ai parcouru la moitié de ce fil, je ne comprends toujours pas l'essentiel).
C'est simple. Vous ne devez pas essayer de comprendre l'ensemble du marché. Et ne faites pas confiance au robot pour rechercher ces modèles sur l'ensemble du marché. Ne prenez qu'une petite partie du marché. Et faites confiance au robot pour rechercher des modèles uniquement dans des parties similaires du marché. Ou trouvez ces modèles vous-même. Il existe des situations sur le marché où la probabilité de gagner est beaucoup plus élevée que celle de perdre. Et il y a des situations où il est préférable de rester en dehors du marché. Et il y a la plupart de ces situations. Donc, prenez uniquement cette partie du marché et ignorez tous les autres mouvements, et créez un algorithme de trading.
J'ai parcouru la moitié de ce fil et je ne comprends toujours pas quel est le but).
C'est comme lire la moitié d'un livre et ne rien comprendre. Certaines personnes ont réussi à multiplier leurs comptes par des centaines, moi par des dizaines, et un auteur a écrit dans la branche qu'il a réussi à multiplier ses comptes par 1000. Il y a donc des régularités sur le marché. C'est avec ces régularités que nous devons travailler.https://www.mql5.com/ru/forum/330313
C'est simple. Vous n'avez pas besoin d'essayer de comprendre l'ensemble du marché. Et ne faites pas confiance à un robot pour rechercher ces modèles sur l'ensemble du marché. Ne prenez qu'une petite partie du marché. Et faites confiance au robot pour rechercher des modèles uniquement dans des parties similaires du marché. Ou trouvez ces modèles vous-même. Il existe des situations sur le marché où la probabilité de gagner est beaucoup plus élevée que celle de perdre. Et il y a des situations où il est préférable de rester en dehors du marché. Et il y a la plupart de ces situations. Il faut donc prendre uniquement cette partie du marché et ignorer tous les autres mouvements pour créer un algorithme de trading.
C'est ce que nous faisons ici, mais à un niveau différent...
Voici un algorithme - un arbre de résolution ou un arbre de conception.
Qu'est-ce que c'est ?
Il s'agit d'une règle logique qui peut être considérée comme marquant une partie du marché, ou vous pouvez imaginer qu'il s'agit d'un micro système de trading pour cette partie du marché. Si l'on va encore plus loin et que l'on ajoute de nombreuses règles de ce type(micro-systèmes), parfois des milliers en une seule, il s'agira d'un algorithme forestier.
C'est simple. Vous n'avez pas besoin d'essayer de comprendre l'ensemble du marché. Et ne faites pas confiance à un robot pour rechercher ces modèles sur l'ensemble du marché. Ne prenez qu'une petite partie du marché. Et faites confiance au robot pour rechercher des modèles uniquement dans des parties similaires du marché. Ou trouvez ces modèles vous-même. Il existe des situations sur le marché où la probabilité de gagner est beaucoup plus élevée que celle de perdre. Et il y a des situations où il est préférable de rester en dehors du marché. Et il y a la plupart de ces situations. Il faut donc prendre uniquement cette partie du marché et ignorer tous les autres mouvements pour créer un algorithme de trading.
C'est comme lire la moitié d'un livre et ne rien comprendre. Certaines personnes ont réussi à multiplier leurs comptes par cent, j'en ai multiplié plusieurs par dix, et un auteur a écrit dans un fil de discussion qu'il a réussi à multiplier ses comptes par mille. Il y a donc des régularités sur le marché. C'est avec ces régularités que nous devons travailler.https://www.mql5.com/ru/forum/330313
J'ai regardé et je n'ai pas compris, parce que je n'ai pas vu d'algorithme d'actions clair, et je n'en ai pas vu non plus de pas clair, je n'en ai pas vu du tout, juste des photos et des posts avec 1000% de partages.