L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3083

 
Maxim Dmitrievsky #:

Pour transformer les paramètres gênants en fonctions, vous pouvez utiliser les valeurs de sortie de la RF ou de tout algorithme de base, comme dans l'article. Pour ceux qui ne sont pas du tout informés : remplacez les valeurs des paramètres sélectionnés par des valeurs de fonctions. La régression linéaire (ou tout autre algorithme) sera alors le méta-liner par lequel l'effet de trituration sera évalué. Pourquoi et comment tout cela fonctionne - apprenez les mathématiques.

Pour comprendre, il suffit de commencer à penser avec sa tête. Mais Sanych va recommencer à dire des bêtises, parce qu'il veut seulement dire quelque chose sans réfléchir. Sanych, votre manque de compréhension est si grand que vous citez les paramètres RF comme une sorte de preuve, ce qui est absolument incroyable. Je vous ai écrit trois fois : oubliez les radiofréquences. Pour la dernière fois : étudiez le sujet, puis discutez. Sinon, les mêmes personnes mal éduquées vous croient aveuglément.

Et ne répondez pas à mes messages avec l'aplomb d'un je-sais-tout (ce qui est agaçant), parce que vous ne savez rien et que cela ressemble aux divagations d'un ptuschnik.

Toutes les références aux sources sont données dans l'article. Vous avez besoin qu'on vous mette des bâtons dans les roues à chaque mot, comme des chatons aveugles ? Ou bien êtes-vous des adultes après tout ?

Je discutais de l'article, pas de votre chiffre dans votre poche, qui, je crois, en contient beaucoup d'après la liste de littérature à laquelle vous faites référence.

Si vous avez un tel désir de poursuivre la discussion sur l'article que vous avez posté, alors je suis prêt à continuer, mais : uniquement l'article et uniquement mes arguments, et sous une forme qui exclut une grossièreté rédhibitoire de votre part.


L'article parlait de RF. Je n'ai pas vu d'autres fonctions permettant de calculer l'erreur d'ajustement ainsi que l'ajustement lui-même. Alors, ayez la gentillesse de reprendre le texte de l'article et de fournir une citation précise qui réfute cette idée.

 
Lilita Bogachkova #:

J'ai une question pour les experts en apprentissage automatique. Si j'utilise les données d'un personnage pour l'entraînement, les données d'un autre personnage pour la validation et les données d'un troisième personnage pour le test, est-ce une bonne pratique ?

De plus, j'obtiens les résultats suivants à partir des données de test : les cellules vertes sont très bonnes, les cellules jaunes sont bonnes, les cellules rouges sont moyennes.


J'ai également une question concernant la modification des données pour entraîner le modèle. J'ai remarqué que le modèle a du mal à trouver les extrema, dans mon cas les valeurs supérieures à 60 et les valeurs inférieures à 40.
Je trouve donc des valeurs supérieures à 60 et inférieures à 40 dans les données d'entraînement, que je réajoute aux données d'entraînement avant de les introduire dans le modèle. La question est donc la suivante : puis-je améliorer la précision du modèle en augmentant les données d'entraînement contenant des informations sur les extrema ?

Si vous ne pouvez pas faire la différence entre les instruments, vous pouvez le faire. Ou les amener de force à cet état en soustrayant la différence.

Pour ce qui est de la deuxième question, non, vous ne pouvez probablement pas. Il sera plus faux à d'autres endroits, parce qu'il tirera le gradient vers lui. Mais tout est individuel.
 
Maxim Dmitrievsky #:
Si vous ne pouvez pas faire la différence entre les instruments, vous pouvez le faire. Ou forcez-les à atteindre cet état en soustrayant la différence.

Pour ce qui est de la deuxième question, non, vous ne pouvez probablement pas. Il sera plus faux à d'autres endroits, parce qu'il tirera le gradient vers lui.

Pour l'instant, c'est ce qu'il semble.


Toutefois, avant d'abandonner cette idée, je vais voir ce que j'obtiens en entraînant le modèle en mélangeant différents instruments (symboles) et en créant ensuite des données ne contenant que des valeurs extrêmes.

 
Lilita Bogachkova #:

À ce stade, cela ressemble vraiment à ceci.


Toutefois, avant d'abandonner cette idée, je vais voir ce que j'obtiens en entraînant le modèle en mélangeant différents instruments (caractères) et en créant ensuite des données ne contenant que des valeurs extrêmes.

Essayez donc. Je n'ai pas vu de différence entre un et plusieurs.
 
Maxim Dmitrievsky #:
Si vous ne pouvez pas faire la différence entre les instruments, vous pouvez le faire. Ou forcez-les à atteindre cet état en soustrayant la différence.

La pratique de différents symboles pour l'entraînement, la validation et le test permet aujourd'hui d'améliorer la précision de la prédiction. L'avantage de cette pratique est qu'il n'y a pas de limite à la taille des données, vous pouvez en donner autant que vous le souhaitez ou que vous en avez besoin pour la validation ou l'entraînement.

En testant avec un troisième symbole, vous pouvez immédiatement voir si le modèle est capable de trouver des modèles universels, plutôt que de se laisser piéger par des événements de marché étroits spécifiques à un symbole particulier.

 
Lilita Bogachkova #:

L'utilisation de différents symboles pour l'entraînement, la validation et le test permet aujourd'hui d'améliorer la précision de la prédiction. L'avantage de cette pratique est qu'il n'y a pas de limite à la taille des données, vous pouvez en donner autant que vous le souhaitez ou que vous en avez besoin pour la validation ou l'entraînement.

Lorsque vous testez le troisième symbole, vous pouvez immédiatement voir si le modèle est capable de trouver des modèles universels plutôt que d'être guidé par des événements étroits du marché.

S'il n'y a pas de biais important dans les données. La dispersion des signes varie d'un symbole à l'autre et le modèle peut dériver sur ces symboles ou rester sur une position. Si les signes ne changent pas de propriétés d'un symbole à l'autre, c'est possible.
 
Je souhaite recueillir des avis sur la correction des données de formation en supprimant les valeurs qui se répètent plusieurs fois à la suite, par exemple les valeurs qui se répètent plus de quatre fois à la suite.
seq = remove_repeating_values(seq, 5)
D'après ce que j'ai compris, ces valeurs égales ont tendance à atteindre plusieurs dizaines dans le cas d'un marché plat. Ce qui, à mon avis, entrave l'apprentissage du modèle.
 
Lilita Bogachkova #:
J'aimerais avoir des avis sur la correction des données d'apprentissage en supprimant les valeurs qui se répètent plusieurs fois de suite, telles que les valeurs qui se répètent plus de 4 fois de suite.
D'après ce que j'ai compris, ces valeurs égales ont tendance à atteindre plusieurs dizaines en cas de marché plat. Ce qui, à mon avis, entrave l'apprentissage du modèle.
En général, les modèles tirent des valeurs au hasard, et non à la suite les unes des autres. Et mélanger l'échantillon est un signe de bon jugement :) lstm peut être écarté et les échantillons peuvent être mélangés.
 
Maxim Dmitrievsky #:
En général, les modèles randomisent les valeurs et ne les alignent pas les unes à la suite des autres.

Oui,

X_train, X_val, y_train, y_val = train_test_split(inputs_unique, outputs_unique, test_size=test_size_value,
                                                    random_state=random_state_value)

mais le grand nombre de valeurs identiques me fait douter de la qualité globale des données.
Exemple : seq = ([5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5]) = [5,5,5,5,5,5,5,5,5,5,5][5] ; [5,5,5,5,5,5,5,5,5][5] ; [5,5,5,5,5,5,5,5][5] ; [5,5,5,5,5,5,5,5,5][5] ......
Je ne vois pas l'intérêt d'alimenter le modèle avec de telles données d'entraînement ;

Je continue donc à trier toutes les données qui ne sont pas uniques.

inputs_unique, indices = np.unique(inputs, axis=0, return_index=True)
outputs_unique = outputs[indices]

Je peux me tromper, mais il me semble erroné d'alimenter également le modèle avec les données d'entraînement suivantes :

[1,2,3,4,5] [5] ;

[1,2,3,4,5] [6] ;

[1,2,3,4,5] [7] ;

[1,2,3,4,5] [8] ;

...

 

Bonjour à tous. J'essaie d'entraîner des Expert Advisors tirés d'une grande série d'articles sur les réseaux neuronaux sur ce site. J'ai l'impression qu'ils ne sont pas entraînables. J'ai essayé de poser des questions à l'auteur sous les articles, mais malheureusement il ne répond pas de manière pratique...(

Par conséquent, une question aux membres du forum - veuillez me dire combien il faut entraîner un réseau neuronal pour qu'il commence à donner des résultats (non aléatoires) ?

J'ai essayé tous les EA de l'article 27 au dernier - le résultat est le même - aléatoire. Je suis passé de 300 à 1000 époques d'entraînement, comme indiqué par l'auteur. Si l'Expert Advisor est juste avec des itérations, j'ai fait de 100 000 à 20 000 000 itérations et ainsi de suite 2-3 approches, toujours aléatoire.

Quelle quantité d'entraînement faut-il prévoir ? Quelle est la taille d'un échantillon d'entraînement suffisant (s'il est préconstitué) ?

PS : Des informations simples sur les réseaux neuronaux dans google read, en général avec les réseaux neuronaux sont familiers. Tous écrivent environ 100-200 époques et il devrait déjà y avoir un résultat (sur des images, des figures, des classifications).