L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1227
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Les généralités sont nombreuses, il est difficile de dire quoi que ce soit d'utile, et les détails, eh bien, vous savez...
Il y a un certain nombre de "règles" qui permettent d'éviter de graves erreurs dans la construction de caractéristiques avec des séries temporelles, en particulier l'une des plus violées est un banal "mélange" de caractéristiques avec des cibles, les caractéristiques devraient être strictement du passé, et les cibles des points strictement du futur, cette séparation devrait être au niveau de l'algorithme de conversion de la série en jeu de données, et non pas comme tout le monde fait toutes sortes d'indicateurs puis couper pour tracer et tester, déplacer quelque chose quelque part et ainsi de suite. Nous devrions couper la série initiale, puis utiliser des fenêtres glissantes (passées et futures) pour parcourir la série et obtenir des caractéristiques et des cibles séparément pour Lerne et le test, ou même pour la validation. Bien sûr, vous pouvez le faire avec des indicateurs, si vous êtes sûr que l'indicateur ne regarde pas vers l'avant pour les caractéristiques et vers l'arrière pour les objectifs. Il existe des erreurs plus subtiles, mais je n'en parlerai pas maintenant.
Les transformations elles-mêmes peuvent être différentes, allant des plus triviales (rapatriement, variation, changement de volume, delta de la pile, distribution des affaires, etc.) à toutes sortes de transformations exotiques.) des dizaines de statistiques spécifiques personnalisées obtenues par "inspiration" ou regroupement qui se sont avérées utiles, telles que "tendance/été" (mentionnée par Inokenty ci-dessus), ainsi que "ordre/haos" et autres. Certaines statistiques sont valables pour différentes périodes, d'autres non, certaines fonctionnalités fonctionnent pour certains instruments, d'autres non, vous devez savoir comment filtrer et sélectionner les attributs pour le ciblage. Il y a beaucoup de choses, les modèles ARMA standard , GARCH ... Prévision macroéconomique à moyen et long terme, comme les caractéristiques, etc. Je n'ai pas encore eu l'occasion de faire du NLP\NLU pour l'analyse des flux de textes, des réseaux sociaux, etc. C'est là que les bénéfices de l'immersion seront certainement nécessaires.
Lorsque je répétais les articles de Vladimir Pererwenko, j'ai fait une expérience supplémentaire - sans aucun indicateur supplémentaire(filtres numériques pour les derniers articles), c'est-à-dire uniquement sur les prix. Le résultat n'a été que de quelques pour cent inférieur. Et même là, je pense qu'il s'agit simplement d'une formation moins réussie de NS (le mélange et l'initialisation différents des poids, et l'OHLC ne proviennent pas de l'article, mais de mon serveur). NS fabriquera facilement n'importe quel indicateur en son sein s'il en a besoin pour ses prédictions. Je pense qu'il n'est pas nécessaire de deviner quel DF avec quels paramètres (LPF/FTF/passe-bande ou un MA) est utile pour la prédiction. Le NS va tout faire à partir de l'OHLC par lui-même.
Mais pour les erreurs plus subtiles, il est toujours intéressant de savoir...
Il est dommage que les informations utiles sur le MO pour la BP soient éparpillées sur plus de 1200 pages. Si ce n'est pas des idées de travail, alors au moins des impasses comme ZZ, PCA et des coups d'œil en avant et en arrière.
Donc le "graal" ne peut être que dans le contexte de l'ultra-hft, ou plutôt était là quand il n'y avait pas cette réglementation obscure, ou un initié qui est disponible pour les gars qui sans cela peuvent juste imprimer de l'argent dans une crise et acheter leurs obligations avec)).
C'est reparti...
Je me fous de vos milliards et de vos initiés, vous connaissez le dicton "un chien aboie mais la caravane roule", nous n'avons pas besoin de vos insultes à la maison de courtage où vous avez laissé vos derniers cent livres, le monde n'est pas juste, vous n'avez pas de chance, j'ai de la chance, je ferai un million sur cent, et si non, je réessayerai, jusqu'à ce que je le fasse.
Ne nous empêchez pas de rêver de yachts et d'îles et de faire de nos rêves une réalité, étape par étape. Ils ne savent même pas où télécharger Voronov et comment distinguer une tendance d'un plat.
C'est reparti...
Nous n'avons pas besoin de vos insultes à la maison de courtage où vous avez laissé vos derniers cent livres, le monde n'est pas juste, vous n'avez pas eu de chance et j'en aurai, je gagnerai un million avec cent livres et si ce n'est pas le cas, je réessaierai jusqu'à ce que je réussisse.
Ne nous empêchez pas de rêver de yachts et d'îles et de faire de nos rêves une réalité, étape par étape. Ce sont tous des "gourous" qui ne savent même pas où télécharger Voronov et comment distinguer une tendance d'un plat.
Je sais que personne ne l'a essayé, mais peut-être :
trier les transactions par profit/perte, respectivement, en divisant les transactions en classes, donner plus de probabilité aux plus profitables, aux moins profitables autour de 0.5. C'est-à-dire qu'il suffit de trier les transactions par efficacité et de leur attribuer des probabilités, il est clair que les transactions les plus efficaces apparaîtront moins, et les plus bruyantes apparaîtront plus.
Cela vaut-il la peine d'expérimenter ? L'erreur devrait-elle diminuer ?
Je sais que personne ne l'a essayé, mais peut-être :
trier les transactions par profit/perte, respectivement, en divisant les transactions en classes, donner plus de probabilité aux plus profitables, aux moins profitables autour de 0.5. C'est-à-dire qu'il suffit de trier les transactions par efficacité et de leur attribuer des probabilités, il est clair que les transactions les plus efficaces apparaîtront moins, et les plus bruyantes plus.
Cela vaut-il la peine d'expérimenter ? L'erreur devrait diminuer ?
1 2 En partie oui, un phénomène à la mode, mais c'est mon opinion, l'"apprentissage profond" lui-même n'est pas vraiment une régression/classification, mais une façon d'extraire des caractéristiques hiérarchiquement organisées plutôt simples.à partir de données d'un certain type, par exemple les images de pixels dessinées par la lumière réfléchie provenant du "monde réel" et entrant dans une caméra, en elles-mêmes en tant que luminosité des pixels, sont de très mauvaises caractéristiques si vous les introduisez telles quelles dans un classificateur et le CNN fait une sorte de "décorrélation de pixels adjacents" et de compression de la dimensionnalité, En général, l'"apprentissage profond" est une sorte de regroupement en plusieurs passes, puis l'introduction de "caractéristiques de haut niveau" dans un classificateur ordinaire. Le sujet est certainement très intéressant, mais il est temps de le développer théoriquement, et pas seulement de l'"analyser" avec des réseaux neuronaux d'architecture différente entraînés par un backprop terriblement lent. Mais une fois de plus, je n'ai pas encore réussi à rendre le diplerning compatible avec le marché, bien que la question reste ouverte, car il est trop coûteux d'expérimenter dans cette direction, comme vous l'avez remarqué à juste titre.
3 Vous n'êtes pas obligé de mettre des constantes dans les feuilles de l'arbre, vous pouvez mettre des modèles linéaires, ou plus complexes, alors il y aura une "extrapolation" au-delà du nuage de points ;))
4 Vous avez eu quelque chose de mal et la forêt et le boosting peuvent faire régresser, pas de problème.
3. c'est-à-dire que vous pouvez combiner et mettre d'autres modèles dans les feuilles des modèles de l'arbre du solveur, je me demande comment cela fonctionne, veuillez donner un exemple réel.
4. Je ne suis pas confus et je vois le problème, car jusqu'à présent, je n'ai pas rencontré de mise en œuvre sur l'échafaudage d'un problème de régression avec de nombreuses sorties (variables dépendantes) comme sur les réseaux neuronaux.
Prenons, par exemple, la fonction de construction de forêt aléatoire de la bibliothèque MQL alglib.mqh
c'est-à-dire lorsque le nombre de variables dépendantes est supérieur à un, cette fonction ne peut résoudre que le problème de classification. Apportez votre mise en œuvre avec une solution à ce problème, et s'il vous plaît dans le code, après tout nous sommes sur un forum de programmeurs :)
Je sais que personne ne l'a essayé, mais peut-être :
trier les transactions par profit/perte, respectivement, en divisant les transactions en classes, donner plus de probabilité aux plus profitables, aux moins profitables autour de 0.5. C'est-à-dire qu'il suffit de trier les transactions par efficacité et de leur attribuer des probabilités, il est clair que les transactions les plus efficaces apparaîtront moins, et les plus bruyantes apparaîtront plus.
Cela vaut-il la peine d'expérimenter ? L'erreur devrait diminuer ?
Si c'est en testeur et afin de trouver les bons points d'entrée indirectement, par la rentabilité des transactions, pourquoi ne pas les trouver tout de suite et idéalement, par série de prix, bien que je l'ai déjà demandé dans la branche Monte Carlo :)
alors il y aura peu d'exemples et les nouvelles données feront de nous un perdant aveugle, nous avons besoin qu'elle "voit" le plus possible dans sa vie
vous ne pouvez pas vous contenter d'un zigzag idéal parce que vous ne serez pas en mesure de trouver des caractéristiques, il doit être un processus à double tranchant de tout essayer simultanément :)
Je réfléchis déjà à l'opportunité de prendre plus de cours au lieu de 2.
alors il y aura peu d'exemples et sur les nouvelles données ns deviendront aveugles perdus, elle devrait "voir" dans sa vie autant que possible
est logique, mais d'un autre côté, il est peut-être préférable de voir moins et de ne négocier que les valeurs sûres plutôt que de signaler continuellement et d'augmenter le risque.
Eh bien, je cherche toujours des erreurs dans un échantillon de test. Cette "certitude" n'apparaît que pour un être humain, alors que nous "pensons" différemment.
Je pense que la façon dont un réseau neuronal pense... il ne se soucie pas de savoir si c'est une chose sûre ou non, tant qu'il peut généraliser.
si vous mettez de la merde dans la fourchette de 0,5, et que les pics sont des métiers de qualité, est-ce que la capacité de généralisation s'améliorerait... vous devriez le vérifier, bien sûr, parce que vous ne pouvez pas le faire à l'œil nu.