L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2019

 
Aleksey Vyazmikin:

Vous pouvez le faire en personne.

Eh bien, voilà, paradoxe situationnel, je ne peux pas accéder à la boîte aux lettres) le site est défaillant. Si ça marche, je vous écrirai ainsi qu'à Maxim.

 
Maxim Dmitrievsky:

Ce n'est pas compliqué, il suffit de le découvrir.

Vous n'avez pas besoin de courant du tout. Je peux apprendre LSTM sur mon ordinateur portable en quelques minutes sans carte vidéo. Le pouvoir est un mythe.

)), eh bien... déclaration discutable.

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 ===========
 eta: 0.0100, alpha: 0.0050
 max_long_result: 0.9986, max_short_result: 0.9996
 min_long_result: 0.9979, min_short_result: 0.9950
La même opération dans MQL prend 10 minutes ou plus. La vitesse pourrait être augmentée si l'hôte avait plus de cœurs dans le processeur ou les processeurs eux-mêmes ;))).
 
Farkhat Guzairov:

)), eh bien... affirmation controversée.

La même opération avec MQL prend 10 minutes ou plus. La vitesse pourrait être augmentée si l'hôte avait plus de cœurs dans le processeur ou les processeurs eux-mêmes))).

2700 époques en 30 secondes est trop rapide

 
dr.mr.mom:

Eh bien, voilà, paradoxe situationnel, je ne peux pas accéder aux boîtes aux lettres) le site web est défaillant. Je vous écrirai, à vous et à Maksim, quand ça se sera éclairci.

Je vous ai écrit, le message est-il passé ?

 
Maxim Dmitrievsky:

2700 époques en 30 secondes, c'est trop rapide.

Les données ne sont pas suffisantes, le tableau a une profondeur de 400 époques, mais si nous le chargeons sur l'histoire profonde, même le C++ avec des threads va s'emballer )))), mais le plus triste est qu'à la fin nous ne pouvons pas obtenir un système bien formé, j'ai un jalon de 30000 époques, il arrête de s'entraîner, mais vous comprenez que ce n'est pas la merde formée, pourquoi est-ce ainsi... Je pense que c'est à cause des collisions, c'est-à-dire qu'il me semble qu'il y a un ensemble de données qui dans un cas dit que le modèle est court et dans l'autre cas ce même modèle apparaît comme un modèle long, si c'est le cas c'est ma faute, mais je n'ai pas le temps de m'en occuper ((. Pour cette raison, j'ai simplement réduit l'ensemble des données d'entrée pour la formation.

 
Maxim Dmitrievsky:

mec... ce n'est pas compliqué dans le sens où tu peux comprendre

En général, deux ou trois couches suffisent, il n'est pas nécessaire d'avoir beaucoup de profondeur en forex.

C'est juste qu'architecturalement, il y a des réseaux plus avancés pour la VR, plus cool que le LSTM. Cela pourrait être rentable à partir de là, mais je ne l'ai pas encore testé. Tous les "classiques" comme les boostings et les perseptrons ne sont pas du tout adaptés à la RV.

La nécessité ou non d'ajouter des couches supplémentaires ne peut être jugée qu'en fonction des résultats obtenus, je pense...

Quels sont les autres réseaux existants, pouvez-vous les nommer - je ne suis pas très doué pour les variétés de réseaux du tout.

Puis-je vous soumettre un échantillon pour un réseau à la mode ?

 
Farkhat Guzairov:

Les données sont petites, le tableau est d'une profondeur de 400, mais si je le charge sur l'histoire profonde, même le C++ avec des threads va s'emballer )))), mais le plus triste est qu'à la fin je ne peux pas obtenir un système bien formé, j'ai 30000 époques, il arrête de s'entraîner, mais vous comprenez que ce n'est pas la merde formée, pourquoi est-ce ainsi... Je pense que c'est à cause des collisions, c'est-à-dire qu'il me semble qu'il y a un ensemble de données qui dans un cas dit que le modèle est court et dans l'autre cas ce même modèle apparaît comme un modèle long, si c'est le cas c'est ma faute, mais je n'ai pas le temps de m'en occuper ((. Pour cette raison, j'ai simplement réduit l'ensemble des données d'entrée pour la formation.

Pourquoi un si grand nombre d'époques... généralement 1000 ou même 100 suffisent pour un taux de bouclage dynamique.

 
Aleksey Vyazmikin:

La nécessité ou non d'ajouter des couches supplémentaires ne peut être jugée que par les résultats obtenus, je pense...

Quels sont les autres réseaux existants, pouvez-vous les nommer ? Je ne suis pas du tout doué pour les variations de réseau.

Je peux vous envoyer un échantillon pour le faire fonctionner dans une sorte de réseau fantaisie ?

Je viens juste d'apprendre les réseaux neuronaux. J'ai déjà écrit ici. Il s'agit de nouveaux systèmes convolutifs, de transformateurs, etc., principalement utilisés pour le traitement du langage et du son.

Les ensembles de données sont préparés d'une manière spéciale, les ensembles de données normaux ne fonctionneront pas.
 
Maxim Dmitrievsky:

Je viens juste d'apprendre les réseaux neuronaux. J'ai déjà écrit ici. Il s'agit des nouvelles convolutions, des transformateurs, etc., principalement utilisés pour le traitement du langage et du son.

Ils ont des jeux de données spéciaux, les jeux habituels ne fonctionnent pas.

Si vous savez comment vous préparer, vous pouvez le faire...

 
Maxim Dmitrievsky:

pourquoi un nombre aussi important d'époques... généralement jusqu'à 1000 ou même 100, avec un taux d'apprentissage dynamique.

L'objectif est d'obtenir une précision maximale pour la formation, c'est-à-dire une précision de 1. Comme les poids primaires sont fixés de manière aléatoire, il arrive que les époques soient inférieures à 1000.