L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 691

 
Maxim Dmitrievsky:

Mais toutes ces approches statistiques ne sont pas pertinentes pour le forex :)

juste pour me creuser les méninges

Cela dépend de l'approche du marché en général. Par exemple, après avoir sélectionné des prédicats et obtenu un modèle, nous pouvons appliquer les mêmes métriques aux résultats du modèle entraîné. Et si plusieurs modèles ont été formés, utilisez alors ces métriques pour choisir le modèle approprié. C'est le problème à bien des égards. Après avoir obtenu 10 modèles, vous devez choisir celui qui sera le meilleur à l'avenir. Et cela peut se faire en construisant VI ou le même échafaudage mais sur les résultats des modèles obtenus..... IMHO

 
Mihail Marchukajtes:

Cela dépend de l'approche du marché dans son ensemble. Par exemple, après avoir sélectionné les prédicteurs et obtenu un modèle, nous pouvons appliquer les mêmes métriques aux résultats du modèle entraîné. Et si plusieurs modèles ont été formés, utilisez alors ces mesures pour sélectionner le modèle approprié. C'est le problème à bien des égards. Après avoir obtenu 10 modèles, vous devez choisir celui qui sera le meilleur à l'avenir. Et cela peut se faire en construisant des VI ou le même échafaudage mais sur les résultats des modèles obtenus..... IMHO

imo, je pense que cela prend trop de temps dans un marché en constante évolution... plus de temps que le trading manuel pour moi personnellement.

si nous parlons d'efficacité, cette approche n'est pas efficace, avec une faible efficacité.

donc je ne suis pas intéressé par l'exploration des données pour le plaisir de l'exploration des données.

 
Mihail Marchukajtes:

Doucement parlé !!!! Dans la continuité du sujet.... Comme vous le savez, j'ai commencé à bidouiller R et j'ai pu calculer le VI maximum entre chaque entrée et sortie, mais même cela a été suffisant pour réduire les données d'entrée de 110 à 20-30, les données d'entrée restant celles qui contiennent le maximum d'informations sur la sortie. En conséquence, les modèles ont commencé à passer mes propres tests avec de plus en plus de succès. Voyons comment cela se passera sur la boucle de rétroaction. Une semaine suffira.

Mais ici, je pense qu'une seule métrique VI ne sera pas suffisante. Je devrais essayer de calculer la redondance et tenter de réduire le nombre de colonnes.

Il existe peut-être des fonctions déjà prêtes qui permettent d'estimer les données d'entrée à la sortie en plus de l'information mutuelle ????.

Oui, et j'en ai parlé plus d'une fois sur ce fil.

Les algorithmes de sélection de prédicteurs qui sont utilisés SANS le modèle d'apprentissage automatique donnent de bons résultats car ceux qui sont intégrés à l'algorithme font partie de cet algorithme et informent simplement sur la manière dont les prédicteurs ont été utilisés dans cet algorithme particulier et non sur leur importance pour la variable cible.

Les algorithmes de caret sont très efficaces, ils sont au nombre de trois. En général, vous devriez prendre ce paquet, car il contient tout : l'exploration de données, qui n'est pas seulement la sélection de prédicteurs, un tas de modèles, la sélection de modèles et leur évaluation. En tout cas, ce caret peut être utilisé comme un manuel sur "ce qui se passe".

J'ai fait une fois un bilan pour moi-même, cela peut être utile.

Dossiers :
 
SanSanych Fomenko:

Complet, et ce n'est pas la première fois que j'en parle sur ce fil.

Les algorithmes de sélection des prédicteurs qui sont utilisés SANS le modèle d'apprentissage automatique donnent de bons résultats, car ceux qui sont intégrés à l'algorithme font partie de cet algorithme et informent simplement sur la manière dont les prédicteurs ont été utilisés dans cet algorithme particulier, plutôt que sur leur importance pour la variable cible.

J'ai fait un bilan pour moi-même une fois, ça pourrait être utile.

Et si vous y réfléchissez ? Avec cette approche, vous entrez dans un cycle sans fin de sélection de caractéristiques.

et vous laissez tomber des exemples où la plupart des modèles sont construits sur des arbres lolz :)

 
Maxim Dmitrievsky:

imo, je pense que cela prend trop de temps dans un marché en constante évolution... plus de temps que le trading manuel pour moi personnellement.

et je ne suis pas intéressé par l'exploration des données pour le plaisir de l'exploration des données.

Si l'on ne tient pas compte de la puissance de calcul dépensée, mais du temps nécessaire à la préparation des transactions, on obtient un tableau assez intéressant. Je fais ce qui suit.

Le samedi je passe 4-8 heures (journée de travail) pour la création d'un modèle et non d'un seul ; je laisse le vendredi comme un morceau de OOS afin de déterminer l'état de fonctionnement du TS. Ainsi, le samedi, je le consacre à la préparation de la semaine suivante. Et vous avez tout à fait raison sur le fait que le marché évolue trop rapidement, il est donc stupide de construire des modèles sur un horizon de 5 ans. En règle générale, si le TS s'entraîne pendant 50% de la période d'entraînement, c'est un bon résultat. En conséquence, réalisant qu'il n'y a pas de sens dans les grands modèles, parce qu'il sera pire dans la qualité de la formation (plus la période de formation est longue, plus le modèle est mauvais), j'ai choisi une période de formation de deux semaines, de sorte que le TS a pu travailler au moins une semaine. En conséquence, j'obtiens une dizaine de modèles, je les soumets à toutes sortes de tests, et maintenant toutes sortes de métriques..... Je choisis exactement ceux qui ont passé ces tests et je mets le tout sur l'UPU et...... est gratuit jusqu'à samedi prochain. Le robot fonctionne de manière autonome, je ne fais que contrôler l'exécution de ses ordres. Alors... ...garde un oeil dessus pour qu'il ne se coince pas. Avant, je devais aller sur TSU tous les matins et régler un paramètre, mais maintenant je me suis débarrassé de ce problème et je ne vais plus du tout sur TSU, une fois tous les deux ou trois jours, et encore, s'il n'y a pas de transactions pendant cette période, mais sinon .... J'emmerde tout. En conséquence, j'estime mon travail non pas d'une affaire à l'autre, mais sur des semaines. Je fais des profits ou des pertes en une semaine, et l'essentiel est d'avoir des semaines plus rentables. Mais le fait est que :

J'ai passé 5 heures le samedi pour passer la semaine suivante les mains dans le pantalon, sans penser au marché, et en enseignant aux étudiants toutes sortes de trucs informatiques. S'asseoir pour faire du trading manuel comporte un inconvénient. Vous pouvez rester assis devant l'écran toute la journée et perdre de l'argent, ce qui entraîne non seulement une perte d'argent, mais aussi une perte de temps. Et comme vous le savez, le temps est une ressource non renouvelable !!!!!.

Si nous faisons du commerce avec des robots, nous devons essayer de passer le moins de temps possible sur le marché, de sorte qu'en cas d'échec du marché, nous puissions l'éviter en gagnant un revenu dans le secteur réel (emploi, atelier, etc.).

Il ne sert à rien de construire de grands modèles dans un marché en constante évolution. La seule différence est que les petits modèles sont généralement meilleurs en termes de résultats de formation, et qu'ils se construisent aussi plus rapidement.

Quant aux modèles adaptatifs de suivi du marché, lorsque de nouvelles données corrigent la structure du modèle, ces modèles ne vivent pas longtemps non plus. À moins qu'il ne s'agisse d'un système d'auto-apprentissage qui se réapprend automatiquement dans des intervalles de temps, se sélectionne lui-même, etc. Cela sent évidemment l'intelligence, mais je pense que c'est encore loin. IMHO, naturellement !!!!

 
Mihail Marchukajtes:

Quant aux modèles adaptatifs de suivi du marché, dans lesquels les nouvelles données ajustent la structure du modèle lui-même, ils ne durent pas longtemps non plus. À moins qu'il ne s'agisse d'un système d'auto-apprentissage qui se réapprend automatiquement à intervalles réguliers, se sélectionne lui-même, etc. Cela sent évidemment l'intelligence, mais je pense que c'est encore loin. IMHO, naturellement !!!!

tout cela existe depuis longtemps :) il fonctionne et apprend en permanence, puis les résultats de "l'activité" sont approximés par un réseau neuronal et ensuite ces estimations sont utilisées avec une certaine probabilité pour prendre de nouvelles décisions et leur ajustement ultérieur

au moins l'approche est plus logique pour le forex

En gros, un tel système est constamment en train de passer par différents états, se souvenant de ce qu'il a fait, analysant les conséquences et prenant des décisions basées sur son expérience... certains oubliant, améliorant... Il s'agit d'une sorte d'IA et il négocie presque comme un vrai trader :) c'est un véritable apprentissage et non une approximation habituelle dans le cas de ce que nous avons fait jusqu'à présent.
 
SanSanych Fomenko:

Complet, et ce n'est pas la première fois que j'en parle sur ce fil.

Les algorithmes de sélection des prédicteurs qui sont utilisés SANS le modèle d'apprentissage automatique donnent de bons résultats, car ceux qui sont intégrés à l'algorithme font partie de cet algorithme et informent simplement sur la manière dont les prédicteurs ont été utilisés dans cet algorithme particulier, et non sur leur importance pour la variable cible.

Les algorithmes de caret sont très efficaces, ils sont au nombre de trois. En général, vous devriez prendre ce paquet, car il contient tout : l'exploration de données, qui n'est pas seulement la sélection de prédicteurs, un tas de modèles, la sélection de modèles et leur évaluation. En tout cas, ce caret peut être utilisé comme un manuel sur "ce qui se passe".

J'ai fait un bilan pour moi-même une fois, ça pourrait être utile.

Merci ! J'ai installé le caret. Je vais essayer de le faire. Mais je m'en suis rendu compte ici l'autre jour. J'ai environ 110 entrées en ce moment, le maximum que je puisse formuler et assembler. Je l'ai fait il y a longtemps, il y a trois ans ou plus, et je me suis dit : et si ces entrées n'étaient pas aussi bonnes que je le pense, ce qui m'a donné l'idée de reprendre la recherche d'entrées pour mon TS !!!!. D'autant plus que c'est beaucoup plus facile à faire avec les statistiques. D'abord, nous mettons tout dans la pile générale, puis nous passons au crible pour ne garder que les plus importants selon un critère ou un autre.

J'ai pris contact avec Denis de KD et il a promis de m'aider à obtenir d'autres données d'une nature complètement différente, mais liées au marché. Cependant, je pense qu'il n'est pas correct de prendre des données pour une période de N barres, car dans ce cas nous suivons l'échelle de temps, alors que nous gagnons sur l'échelle de prix. Ainsi, le marché doit être analysé en utilisant l'échelle des prix (profil), et non l'échelle de temps. Denis a promis d'aider à la construction du profil delta et ainsi de suite. Et ces mêmes données seront plus intéressantes pour l'IA que, par exemple, le delta sur N barres. De plus, il prend également le marché avec le CME, de sorte que l'OM peut être atteint, et cela avec le volume est déjà GOGOOOOOOOOOOOOOO !!!!!. Bien sûr, l'OM ne fera pas la pluie et le beau temps, mais l'ajout de 5 à 10 % aux performances du CT ne fera pas de mal, car ce sont parfois ces pourcentages qui manquent.......

 
Maxim Dmitrievsky:

Et si vous y réfléchissez ? Avec cette approche, vous entrez dans un cycle sans fin de sélection de caractéristiques.

et déposé des exemples où la plupart des modèles sont construits sur des arbres lolz :)

Je n'ai pas besoin de réfléchir - pour moi, c'est une phase passée avec une archive assez importante de résultats expérimentaux.

Je vais répéter ce que j'ai déjà écrit à plusieurs reprises.

1. Cible ZZ

2. J'ai inventé environ 200 prédicteurs pour cette cible.

3. 27 prédicteurs ont été sélectionnés sur 200 en utilisant l'algorithme "influence sur la cible".

4. j'ai sélectionné des prédicteurs parmi les 27 prédicteurs de chaque barre et changé le nombre de prédicteurs sélectionnés de 6-7 à 15 sur 27.

5. Fitting rf. L'erreur d'ajustement est légèrement inférieure à 30%.


Pas de cycles infinis. 30 % est un très bon résultat, mais en théorie. Je n'ai pas réussi à construire un Expert Advisor pratique en utilisant ce résultat, j'ai dû ajouter des indicateurs de tendance. Actuellement, je suis en train de changer les indicateurs pour GARCH.

 
Maxim Dmitrievsky:

tout cela existe depuis longtemps :) il fonctionne et apprend en permanence, puis les résultats de l'"activité" sont approximés par un réseau neuronal, puis ces estimations sont utilisées avec une certaine probabilité pour prendre de nouvelles décisions et leur ajustement ultérieur

au moins l'approche est plus logique pour le forex

En gros, un tel système est constamment en train de passer par différents états, se souvenant de ce qu'il a fait, analysant les conséquences et prenant des décisions basées sur son expérience... il oublie un peu, il s'améliore... Il est comme une IA et négocie presque comme un vrai trader :)

C'est la première option, et la seconde consiste à construire de petits modèles sans adaptation pour une période de temps relativement courte. Pour ainsi dire, en pillant le marché. Il est venu et a optimisé, a pris aux roturiers quelques bonnes affaires et est reparti jusqu'à la prochaine fois. ....

 

Les prédicteurs peuvent être sélectionnés, extraits et créés. N'oubliez pas qu'en plus des prédicteurs dits "bruyants", il existe des exemples "bruyants" qui doivent également être soit repartis, soit supprimés. Vous pouvez lire tout cela et répéter les exemples dans les articles suivants

Réseaux neuronaux profonds (partie III). Sélection d'exemples et réduction de la dimensionnalité

Réseaux neuronaux profonds (partie II). Développement et sélection de prédicteurs

Réseaux neuronaux profonds(première partie). Préparation des données

Évaluation et choix des variables pour les modèles d'apprentissage automatique

Bonne chance