L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 895
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Quel était l'humour là-dedans ? Que l'autre mot est déplacé, pas même un homonyme ?
Tu ne comprends pas... Il est inutile de l'expliquer.
Dans le deuxième article, la génétique et l'énumération d'un tas de paramètres sont remplacées par un seul vecteur de valeurs (entrées de la forêt, prédicteurs), et les sorties sont sélectionnées en fonction du nombre maximal de transactions rentables. Il est possible d'introduire d'autres critères, en corrigeant la fonction de récompense (notamment DD, Sharp Ratio, tout ce que vous voulez).
L'algorithme optimise toute stratégie avec une très haute qualité en seulement quelques passages dans l'optimiseur (généralement 5) (contrairement à l'AG et, a fortiori, à la force brute). Dans l'exemple donné dans l'article, il s'agit de secondes. De plus, l'augmentation du nombre de prédicteurs n'augmente pratiquement pas le nombre de passes d'optimisation. Je recommande de tester votre Ligue des Stratégies dans un autre fil. En outre, vous pouvez concevoir des algorithmes d'optimisation encore plus efficaces pour la ligue, sur la base de l'approche proposée. L'optimiseur régulier peut être écarté comme obsolète, surtout sans validation croisée (Wolf-forward), et il perd (au moins) en vitesse plusieurs fois, et en qualité n'est pas meilleur. Si nous remplaçons la forêt par NS avec kfold, nous obtenons l'analogue de wolf-forward, et très rapide. Mais jusqu'à présent, les mains n'y sont pas parvenues.
L'information mutuelle est une mesure de l'entropie entre la variable cible et les prédicteurs, comme vous l'avez montré dans l'image sous forme de tableau de l'importance des prédicteurs. Mais vous pouvez simplement utiliser l'élimination récursive des fonctions dans lasas, et surveiller les erreurs. S'il est nécessaire de trier et d'éliminer les prédicteurs non informatifs. (déchiffrage google)
upd
Après avoir lu l'article, j'ai plus de questions que de réponses, tout le code n'est pas clair, mais j'ai compris que je dois réécrire complètement TC pour mettre en œuvre cette approche décrite dans l'article. Il est évident que je n'ai pas encore atteint le niveau auquel l'article a été écrit.
Il s'est avéré que vous pouvez construire votre propre arbre dans le Deductor Studio en mode manuel et semi-automatique, ce qui m'a vraiment fasciné ! Le processus est toutefois laborieux et l'interface ne comporte pas de fonction de glisser-déposer, mais le fait de travailler avec des données dans ce mode permet de mieux voir les schémas. Véritable manque de possibilité de changer la règle, c'est-à-dire que si l'échantillon dit que c'est 1 alors à zéro ne peut pas changer, et j'aurais déplacé une partie des règles vers zéro à la fois sur la rareté de la chute, et la crédibilité et de regarder à la fois les statistiques, et puis tout ont à faire par le biais de scripts de traitement. Peut-être existe-t-il d'autres programmes similaires dotés de telles fonctionnalités, mais où vous pouvez construire les nœuds d'un arbre à la main plus rapidement ?
Voici les premières erreurs... OK, définissons alors le moment où la marque traverse de bas en haut le signal pour acheter, de haut en bas le signal pour vendre. Mais seulement sur une barre. Nous ne laissons que le moment du passage de la marque 50. J'espère que cela se produit dans une seule barre ?
En fait, selon votre règle, lorsque le prix atteint 50 % du bas vers le haut, il atteint simultanément le niveau inférieur. Il suffira donc de franchir la barre des 50% de bas en haut pour acheter. Au contraire au contraire.... Que pensez-vous de ce plan ?
Travaillez à l'ouverture d'un nouveau bar. L'entrée n'est pas si importante, dans mon système, l'élimination des déchets se fait par les statistiques, je ne considère pas cela comme une erreur. Ce croisement ne donnera rien d'extraordinaire, si ce n'est qu'il diminuera la fréquence de génération des signaux, mais la qualité du signal diminuera également.
A ajouter. Pourquoi avez-vous besoin d'un signal constant ? Je pense que le moment le plus approprié pour l'analyse est lorsque le signal passe de l'achat à la vente, s'il est constant. Je pense que le temps de changement de signal est limité à 1 barre. Pensez-y. Pourquoi devrais-je tout analyser dans le signal d'achat, si l'essentiel est d'ouvrir la position. C'est-à-dire que l'essentiel est le moment du changement de signal. Elle peut être balisée.
Il n'est pas bon d'être sur le marché en permanence - les risques sont trop élevés.
Travaillez à l'ouverture d'un nouveau bar. L'entrée n'est pas si importante, dans mon système, les déchets sont éliminés par les statistiques, je ne pense pas que ce soit une erreur. Le passage à niveau ne fera rien, si ce n'est réduire la fréquence de génération du signal d'entrée, mais sa qualité diminuera également.
C'est une erreur - il ne faut pas être sur le marché tout le temps - risques excessifs.
Eh bien, vous avez dit que vous avez un signal constant. Je suis désolé, mais je vois un malentendu, donc je peux difficilement vous aider... Un trop grand malentendu....
Eh bien, vous avez dit que vous aviez un signal constant. Je suis désolé, mais je peux voir le malentendu, donc je ne pense pas pouvoir vous aider... C'est un trop grand malentendu. ....
J'ai expliqué que la décision est en fait prise par la cascade de filtres. Tout ce que j'attends de MO, c'est qu'il identifie les sections des marchés où certains des filtres valent la peine d'être utilisés et celles où ils ne le sont pas. Je dois rationaliser ce qui fonctionne déjà et ne pas attendre un miracle d'une boîte noire.
J'ai expliqué que la décision est en fait prise par la cascade de filtres. Tout ce que j'attends du ministère de la défense, c'est qu'il identifie les parties du marché où certains des filtres valent la peine d'être utilisés et celles où ils ne le sont pas. Je dois rationaliser ce qui fonctionne déjà, et non pas attendre une boîte noire miracle.
La prise de décision devrait être entièrement transférée aux SN, au lieu des filtres, alors cela a du sens. Dans ce cas, une simple question par oui ou par non coûte beaucoup de ressources, et vous voulez que le SN identifie quelles parties du marché utiliser et quels filtres. Je pense que c'est trop compliqué. C'est possible, mais il est plus facile de construire stupidement le bon modèle au lieu de vos filtres là. IMHO ! !!!
Après avoir lu l'article, j'ai plus de questions que de réponses, tout le code n'est pas clair, mais j'ai compris que je dois réécrire l'ensemble du TS pour mettre en œuvre l'approche décrite dans l'article. Il est évident que je n'ai pas encore atteint le niveau auquel l'article a été écrit.
Il s'est avéré que vous pouvez construire votre propre arbre dans le Deductor Studio en mode manuel et semi-automatique, ce qui m'a vraiment fasciné ! Le processus est toutefois laborieux et l'interface ne comporte pas de fonction de glisser-déposer, mais le fait de travailler avec des données dans ce mode permet de mieux voir les schémas. Véritable manque de possibilité de changer la règle, c'est-à-dire que si l'échantillon dit que c'est 1 alors à zéro ne peut pas changer, et j'aurais déplacé une partie des règles vers zéro à la fois sur la rareté de la chute, et la crédibilité et de regarder à la fois les statistiques, et puis tout ont à faire par le biais de scripts de traitement. Peut-être existe-t-il d'autres programmes similaires dotés de telles capacités, mais où vous pouvez plus rapidement construire des nœuds à la main dans l'arbre ?
Non, jamais.
Je ne comprends pas vraiment pourquoi c'est nécessaire, parce que, par exemple, une forêt est un classificateur ou un approximateur universel, et il n'y a rien à corriger à la main...
tandis que les arbres simples sont des algorithmes plutôt faibles et primitifs.
Si vous n'êtes pas en mesure de résoudre ces problèmes vous-même, trouvez-moi le module VisSim NeuralNet et je vous montrerai comment faire.
Artem, mes plus humbles salutations et mon respect. Derrière moi - un modèle de travail de mon TS avec des exemples. Je l'enverrai ce week-end. Regardez-le, si vous ne l'aimez pas, jetez-le.
Comment allons-nous faire ça si vous ne nous dites rien. Parlez-nous des derniers développements. En détail, avec des exemples.
Pour quoi faire ? Je vais vous dire une chose. Doc m'a aidé à transférer les modèles de R à MT et laissez-moi vous dire que ces modèles fonctionnent exactement de la même manière que ceux de Reshetov sur OOS. Exactement la même chose. Vous pouvez donc faire confiance aux modèles R. Tout est dans l'alimentation des données... Tous les mêmes....