L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3083
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Pour transformer les paramètres gênants en fonctions, vous pouvez utiliser les valeurs de sortie de la RF ou de tout algorithme de base, comme dans l'article. Pour ceux qui ne sont pas du tout informés : remplacez les valeurs des paramètres sélectionnés par des valeurs de fonctions. La régression linéaire (ou tout autre algorithme) sera alors le méta-liner par lequel l'effet de trituration sera évalué. Pourquoi et comment tout cela fonctionne - apprenez les mathématiques.
Pour comprendre, il suffit de commencer à penser avec sa tête. Mais Sanych va recommencer à dire des bêtises, parce qu'il veut seulement dire quelque chose sans réfléchir. Sanych, votre manque de compréhension est si grand que vous citez les paramètres RF comme une sorte de preuve, ce qui est absolument incroyable. Je vous ai écrit trois fois : oubliez les radiofréquences. Pour la dernière fois : étudiez le sujet, puis discutez. Sinon, les mêmes personnes mal éduquées vous croient aveuglément.
Et ne répondez pas à mes messages avec l'aplomb d'un je-sais-tout (ce qui est agaçant), parce que vous ne savez rien et que cela ressemble aux divagations d'un ptuschnik.
Toutes les références aux sources sont données dans l'article. Vous avez besoin qu'on vous mette des bâtons dans les roues à chaque mot, comme des chatons aveugles ? Ou bien êtes-vous des adultes après tout ?
Je discutais de l'article, pas de votre chiffre dans votre poche, qui, je crois, en contient beaucoup d'après la liste de littérature à laquelle vous faites référence.
Si vous avez un tel désir de poursuivre la discussion sur l'article que vous avez posté, alors je suis prêt à continuer, mais : uniquement l'article et uniquement mes arguments, et sous une forme qui exclut une grossièreté rédhibitoire de votre part.
L'article parlait de RF. Je n'ai pas vu d'autres fonctions permettant de calculer l'erreur d'ajustement ainsi que l'ajustement lui-même. Alors, ayez la gentillesse de reprendre le texte de l'article et de fournir une citation précise qui réfute cette idée.
J'ai une question pour les experts en apprentissage automatique. Si j'utilise les données d'un personnage pour l'entraînement, les données d'un autre personnage pour la validation et les données d'un troisième personnage pour le test, est-ce une bonne pratique ?
De plus, j'obtiens les résultats suivants à partir des données de test : les cellules vertes sont très bonnes, les cellules jaunes sont bonnes, les cellules rouges sont moyennes.
J'ai également une question concernant la modification des données pour entraîner le modèle. J'ai remarqué que le modèle a du mal à trouver les extrema, dans mon cas les valeurs supérieures à 60 et les valeurs inférieures à 40.
Je trouve donc des valeurs supérieures à 60 et inférieures à 40 dans les données d'entraînement, que je réajoute aux données d'entraînement avant de les introduire dans le modèle. La question est donc la suivante : puis-je améliorer la précision du modèle en augmentant les données d'entraînement contenant des informations sur les extrema ?
Si vous ne pouvez pas faire la différence entre les instruments, vous pouvez le faire. Ou forcez-les à atteindre cet état en soustrayant la différence.
Pour l'instant, c'est ce qu'il semble.
Toutefois, avant d'abandonner cette idée, je vais voir ce que j'obtiens en entraînant le modèle en mélangeant différents instruments (symboles) et en créant ensuite des données ne contenant que des valeurs extrêmes.
À ce stade, cela ressemble vraiment à ceci.
Toutefois, avant d'abandonner cette idée, je vais voir ce que j'obtiens en entraînant le modèle en mélangeant différents instruments (caractères) et en créant ensuite des données ne contenant que des valeurs extrêmes.
Si vous ne pouvez pas faire la différence entre les instruments, vous pouvez le faire. Ou forcez-les à atteindre cet état en soustrayant la différence.
La pratique de différents symboles pour l'entraînement, la validation et le test permet aujourd'hui d'améliorer la précision de la prédiction. L'avantage de cette pratique est qu'il n'y a pas de limite à la taille des données, vous pouvez en donner autant que vous le souhaitez ou que vous en avez besoin pour la validation ou l'entraînement.
En testant avec un troisième symbole, vous pouvez immédiatement voir si le modèle est capable de trouver des modèles universels, plutôt que de se laisser piéger par des événements de marché étroits spécifiques à un symbole particulier.
L'utilisation de différents symboles pour l'entraînement, la validation et le test permet aujourd'hui d'améliorer la précision de la prédiction. L'avantage de cette pratique est qu'il n'y a pas de limite à la taille des données, vous pouvez en donner autant que vous le souhaitez ou que vous en avez besoin pour la validation ou l'entraînement.
Lorsque vous testez le troisième symbole, vous pouvez immédiatement voir si le modèle est capable de trouver des modèles universels plutôt que d'être guidé par des événements étroits du marché.
seq = remove_repeating_values(seq, 5)
D'après ce que j'ai compris, ces valeurs égales ont tendance à atteindre plusieurs dizaines dans le cas d'un marché plat. Ce qui, à mon avis, entrave l'apprentissage du modèle.En général, les modèles randomisent les valeurs et ne les alignent pas les unes à la suite des autres.
Oui,
mais le grand nombre de valeurs identiques me fait douter de la qualité globale des données.
Exemple : seq = ([5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5]) = [5,5,5,5,5,5,5,5,5,5,5][5] ; [5,5,5,5,5,5,5,5,5][5] ; [5,5,5,5,5,5,5,5][5] ; [5,5,5,5,5,5,5,5,5][5] ......
Je ne vois pas l'intérêt d'alimenter le modèle avec de telles données d'entraînement ;
Je continue donc à trier toutes les données qui ne sont pas uniques.
inputs_unique, indices = np.unique(inputs, axis=0, return_index=True) outputs_unique = outputs[indices]
Je peux me tromper, mais il me semble erroné d'alimenter également le modèle avec les données d'entraînement suivantes :
[1,2,3,4,5] [5] ;
[1,2,3,4,5] [6] ;
[1,2,3,4,5] [7] ;
[1,2,3,4,5] [8] ;
...
Bonjour à tous. J'essaie d'entraîner des Expert Advisors tirés d'une grande série d'articles sur les réseaux neuronaux sur ce site. J'ai l'impression qu'ils ne sont pas entraînables. J'ai essayé de poser des questions à l'auteur sous les articles, mais malheureusement il ne répond pas de manière pratique...(
Par conséquent, une question aux membres du forum - veuillez me dire combien il faut entraîner un réseau neuronal pour qu'il commence à donner des résultats (non aléatoires) ?
J'ai essayé tous les EA de l'article 27 au dernier - le résultat est le même - aléatoire. Je suis passé de 300 à 1000 époques d'entraînement, comme indiqué par l'auteur. Si l'Expert Advisor est juste avec des itérations, j'ai fait de 100 000 à 20 000 000 itérations et ainsi de suite 2-3 approches, toujours aléatoire.
Quelle quantité d'entraînement faut-il prévoir ? Quelle est la taille d'un échantillon d'entraînement suffisant (s'il est préconstitué) ?
PS : Des informations simples sur les réseaux neuronaux dans google read, en général avec les réseaux neuronaux sont familiers. Tous écrivent environ 100-200 époques et il devrait déjà y avoir un résultat (sur des images, des figures, des classifications).