L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 45

 
Andrey Dik:

OK, c'est une très bonne performance commerciale sur l'historique ! Félicitations.

Est-ce que quelqu'un a vu un système Forex ouvertement distribué ou en vente, où le forward donne du profit dans cinq ans ? Je pourrais simplement poster ce produit ici ou dans la base de code comme preuve. Je ne suis pas intéressé par des courbes plates sur quelques années pour des centaines de pourcentages du marché. Comme ils sont tous durs à mettre en place. Je me fais à moi-même et j'évite de m'adapter. Et il est possible d'apporter suffisamment d'améliorations à ce système pour améliorer le FS d'un facteur un et demi ou deux.

Et de toute façon, ce fil de discussion porte sur l'apprentissage automatique, qui implique la création de produits non formés. Et le comptage des pourcentages est une autre affaire.

Je vais essayer une autre méthode pour entraîner la machine et je pense qu'elle peut encore s'améliorer.
 
Alexey Burnakov:
Comment créer plusieurs prédicteurs à partir des plages d'un prédicteur ? Je ne comprends pas.

Oh, c'est très simple : le clustering...

1) Prenons chaque prédicteur et regroupons-le en, disons, 50 clusters (de plus, le clustering peut et doit être fait en deux types : 1) clusterisation "telle quelle" pour regrouper le prédicteur par valeurs numériques et le second type 2) clusterisation du prédicteur normalisé pour le regrouper en tant qu'image) ensemble nous obtenons tout comme la vision humaine, nous connaîtrons non seulement les valeurs numériques "réelles" du prédicteur mais aussi l'image - courbes, pentes

2) Nous créons un tableau où les colonnes sont des clusters, 50 clusters ---> 50 colonnes ---> 50 prédicteurs, nous vérifions l'importance de ces prédicteurs en utilisant un algorithme et nous voyons que sur 50 prédicteurs, seuls 1-5 sont importants, nous les gardons.

3) Prendre le prédicteur suivant, le regrouper et répéter les étapes 1 et 2.

Une telle sélection à l'intérieur du prédicteur devrait théoriquement augmenter la qualité de la reconnaissance de plusieurs ordres de grandeur...

mais il y a quelques inconvénients

1) des calculs coûteux

2) si chaque prédicteur est divisé un par un et que son contenu est évalué séparément du contenu des autres prédicteurs, il sera impossible d'évaluer la corrélation entre les prédicteurs ; il faut trouver une solution.

 
mytarmailS:

Oh, c'est très simple : le clustering...

1) Nous prenons chaque prédicteur et le regroupons en, disons, 50 clusters (alors que le clustering peut et doit être fait en deux types : 1) clustering "tel quel" pour regrouper le prédicteur selon les valeurs numériques et le second type 2) clustering du prédicteur normalisé pour le regrouper comme une image) ensemble nous obtenons tout comme la vision humaine, nous connaîtrons non seulement les valeurs numériques "réelles" du prédicteur mais aussi l'image - courbes, pentes

2) Nous créons un tableau où les colonnes sont des clusters, 50 clusters ---> 50 colonnes ---> 50 prédicteurs, nous vérifions l'importance de ces prédicteurs en utilisant un algorithme et nous voyons que sur 50 prédicteurs, seuls 1-5 sont importants, nous les gardons.

3) prendre le prédicteur suivant, le regrouper et répéter les étapes 1 et 2

Une telle sélection à l'intérieur du prédicteur devrait théoriquement augmenter la qualité de la reconnaissance de plusieurs ordres de grandeur...

mais il y a quelques inconvénients

1) des calculs coûteux

2) si chaque prédicteur est décomposé un par un et que son contenu est évalué séparément du contenu des autres prédicteurs, il sera impossible d'évaluer la corrélation entre les prédicteurs ; il faut trouver une solution.

C'est une façon de l'essayer. En fait, il existe une méthode. Vous faites un tableau de points du prédicteur de sortie. Idéalement, il y aura une bonne dépendance. Mais si sur certains segments (généralement dans les queues) la dépendance est floue, ces observations sont exclues.
 
Alexey Burnakov:
Vous pouvez essayer de cette façon. En général, il y a une méthode. Vous faites un tableau de points de sortie-prédicteur. Idéalement, il y aura une bonne dépendance. Mais si la dépendance est floue sur certains segments (généralement dans les queues), ces observations sont exclues.

comment s'appelle cette méthode ?

Il y en a un dans la CR ?

comment résoudre le problème n°2 ?

J'aimerais en discuter, cela pourrait être très efficace.
 
mytarmailS:

comment s'appelle cette méthode ?

Il y en a un dans la CR ?

comment résoudre le problème n°2 ?

J'aimerais en discuter, cela pourrait être très efficace.
2. C'est résolu comme ça. La variable est ramenée à une forme discrète. Supposons qu'il y ait 50 niveaux. Nous créons 49 nouvelles variables et y codons des niveaux. Ensuite, nous appliquons, par exemple, la régression linéaire et examinons l'importance.
 
Alexey Burnakov:

Au fait, est-ce que ça intéresse quelqu'un ou pas, je ne comprends pas. Avez-vous besoin d'un robot entraîné qui passe la validation en 5 ans avec un bénéfice ?

Un tel

Je suis de retour de vacances. Je peux préparer les fichiers et les poster, et ceux qui en ont besoin l'amélioreront pour eux-mêmes.

Je suis intéressé par la façon dont vous avez créé le robot point par point, si ce n'est pas difficile...

1) sélectionnez les caractéristiques en fonction de votre méthode

2) Vous avez réalisé le modèle

et c'est tout ?

 
mytarmailS:

Je suis intéressé par la façon dont vous avez créé le robot point par point, si ce n'est pas difficile...

1) Sélection des caractéristiques en fonction de votre méthode

2) Vous avez construit le modèle

et c'est tout ?

Il s'agit d'un schéma général qui fonctionne toujours.

J'élimine les caractéristiques par l'importance après l'exécution du GBM. Et j'essaie différents nombres de sélections. La machine est entraînée par GBM et j'ai essayé différentes fonctions de fitness. La validation croisée est utilisée. Ses paramètres varient également. Et il y a d'autres nuances.

En général, j'ai obtenu un tel résultat qui prouve que plus complexe n'est pas toujours meilleur. Sur l'EURUSD, le modèle utilise seulement 5 prédicteurs et seulement deux failles de validation croisée.

 
Réseau neuronal très intéressanthttp://gekkoquant.com/2016/05/08/evolving-neural-networks-through-augmenting-topologies-part-3-of-4/. Pensez-vous qu'il soit possible de le rendre capable de négocier lui-même et d'apprendre de ses erreurs ? Et si oui, comment, vous êtes le bienvenu pour en discuter.
Evolving Neural Networks through Augmenting Topologies – Part 3 of 4
  • 2016.05.09
  • GekkoQuant
  • gekkoquant.com
This part of the NEAT tutorial will show how to use the RNeat package (not yet on CRAN) to solve the classic pole balance problem. The simulation requires the implementation of 5 functions: processInitialStateFunc – This specifies the initial state of the system, for the pole balance problem the state is the cart location, cart velocity, cart...
 
mytarmailS:
Réseau neuronal très intéressanthttp://gekkoquant.com/2016/05/08/evolving-neural-networks-through-augmenting-topologies-part-3-of-4/. Pensez-vous qu'il soit possible de le rendre capable de négocier lui-même et d'apprendre de ses propres erreurs ? Et si oui, comment le faire, j'invite à en discuter.

Si le développeur affirme que le réseau peut remplacer un algorithme d'apprentissage par renforcement, c'est prometteur.

L'expérimentation est nécessaire. Mais le sujet est intéressant.

 
Vladimir Perervenko:

Si le développeur affirme que le réseau peut remplacer un algorithme d'apprentissage par renforcement, c'est prometteur.

L'expérimentation est nécessaire. Mais c'est un sujet intéressant.

Je suis d'accord, c'est intéressant... Mais il n'y a presque rien de clair pour moi, en commençant par l'idéologie et en terminant par le code lui-même, il y a trop de choses et beaucoup d'opérateurs que je ne connais même pas.

Si quelqu'un pouvait expliquer tout cela, au moins par des exemples élémentaires, comment l'utiliser dans le trading, ce serait une bonne expérience pour des personnes inexpérimentées comme moi.