Utilisation des réseaux neuronaux dans le trading. - page 2

 
une erreur courante consiste à ne pas inclure les mesures de "niveau" et de "volume" (volumes sur les futures)
 
Neutron писал(а) >> La série temporelle déjà disséquée , c'est-à-dire pas toutes les barres, mais les points clés probables, est utilisée comme entrée.

En général, il n'est pas recommandé d'interrompre les séries chronologiques, en particulier les séries financières - l'information est perdue......

 
StatBars писал(а) >>

Une fonction sigmoïde en elle-même n'aplatit pas la distribution... À mon avis, il est plus important de résoudre le problème de la stationnarité des données lors du prétraitement.

À propos, la formule que vous m'avez donnée donne W=420, d=14, donc P>50400 - ne pensez-vous pas que l'échantillon est un peu trop grand ?

Non, ni la fonction singhmoïde ni la fonction hyperbolique n'égalise la distribution. Vous pouvez facilement le vérifier en traçant la distribution avant et après l'application de la fonction. Vous devez appliquer des méthodes spéciales ici.

Quant à la "taille" de l'échantillon, un compromis est possible. Par exemple, il est possible de recommander un arrêt prématuré de l'apprentissage pour une durée plus courte de données historiques disponibles, ce qui permettra d'éviter l'effet du réapprentissage, mais les capacités de classification des SN à ce stade de l'apprentissage seront de toute façon inférieures à celles des SN formés sur un historique suffisamment important.

Dans mon expérience (petite) et les articles le nombre d'exemples dans l'échantillon ne dépend pas que vous offrez ...

Et dans mon expérience - il n'y a pas de contradiction - tout est conforme à la théorie.

LeoV a écrit >>

En général, il n'est pas recommandé d'interrompre les séries chronologiques, en particulier les séries financières - l'information est perdue......

En raison de la complexité de la formation des SN, nous sommes toujours obligés de trouver un compromis entre la complexité architecturale et la puissance de calcul. Avec la complexité limite de l'architecture que nous utilisons, nous avons naturellement une limite sur la dimension limite de l'entrée NS, en conséquence, nous pouvons alimenter un vecteur pas plus long que certains (une centaine d'autres au maximum) à l'entrée et nous devons choisir entre la perte de données et la couverture de l'historique. Parfois, il est important de couvrir autant que possible et de comprendre ce qui est couvert dans un temps raisonnable (en termes d'IA).

 
Neutron писал(а) >> En raison de la complexité de la formation du SN, nous sommes toujours obligés de trouver un compromis entre la complexité architecturale et la puissance de calcul. Avec la complexité limite de l'architecture que nous utilisons, nous avons naturellement une limite sur la dimensionnalité limite de l'entrée NS, en conséquence, nous pouvons alimenter l'entrée avec un vecteur pas plus long que quelques (une centaine d'autres au maximum) et devons choisir entre la perte de données et la couverture de l'histoire. Parfois, il est important de couvrir davantage et de comprendre ce qui est couvert dans un temps raisonnable (en termes d'IA).

Cela n'a aucun sens de courir après la complexité de l'architecture d'un réseau neuronal, puisque 10-15 neurones apprendront facilement et sans heurts l'histoire de 1500-2000 barres, voire plus. Mais plus ils apprennent l'histoire, plus ils travailleront mal à l'avenir - l'effet du surentraînement arrive. Il est beaucoup plus efficace et productif de trouver des entrées "correctes", qui donneront aux NS les informations correctes sur le mouvement des symboles.

 

Leonid, il n'y a pas de problème de reconversion du SN - il s'agit de ne pas comprendre l'essence de ce qui se passe à l'intérieur de cette boîte portant un beau nom et contenant trois clous. Ne prenez pas un échantillon d'entraînement plus court que le minimum et vous n'aurez pas à décider à l'instinct ce qui est meilleur et ce qui est pire !

En ce qui concerne les entrées "correctes", je suis d'accord avec vous à 100%, c'est la clé du succès - tout ce qui peut être résolu pour NS-ku - doit être résolu indépendamment. Il faut lui laisser des éléments que la solution ne possède pas ou qui sont d'une difficulté injustifiée. Par exemple, il n'est pas du tout logique d'alimenter l'entrée Zig-Zag. Le comportement de NS dans ce cas est évident - il apprendra ce qui se trouve à la surface - alternance de signes des épaules de ZZ, et il n'y a aucune utilité de telles données d'entrée.

 
Neutron писал(а) >>

Leonid, il n'y a pas de problème de reconversion du SN - il s'agit de ne pas comprendre l'essence de ce qui se passe à l'intérieur de cette boîte portant un beau nom et contenant trois clous. Ne prenez pas un échantillon de formation plus court que le minimum et vous n'aurez pas à décider à l'instinct ce qui est meilleur ou moins bon !

Il y a aussi des problèmes d'échantillonnage - il est clair que dans le Forex il y a certaines lois du mouvement, qui changent avec le temps. Ainsi, si l'échantillon est trop grand - le réseau ne trouvera pas ces lois du mouvement parce qu'il y en a trop et qu'elles sont trop différentes, trop petites - il se recyclera rapidement. Et il est impossible de trouver la formule exacte - donc ici aussi, tout dépend du trader, et non de la complexité de l'architecture NS.

 

C'est vrai. Droit au but !

En fait, si nous résolvons le problème de manière directe, il s'avère que la longueur d'échantillonnage optimale est P>(W^2)/d, et en tenant compte de la non-stationnarité des processus sur le marché, l'optimum est

P=(4-8)*(W^2)/d. C'est ce dont vous parlez.

 
Neutron писал(а) >>

C'est à peu près ce qui se passe : avant la conversion, après, les photos ne proviennent pas du même échantillon, mais néanmoins je l'ai fait plusieurs fois l'effet est le même...

 

Je peux voir que c'est à niveau.

Mais ça ne peut pas être comme ça si vous influencez simplement le signal d'entrée avec une fonction comme la sigmoïde et/ou quelque chose comme ça. Très probablement, si nous étendons les axes gauche et droit sur le graphique inférieur d'une distance égale à la moitié de la dernière barre de l'histogramme (afin de la voir), le miracle disparaîtra et nous verrons une cloche.

Sinon, il y aura une perforation dans l'analyse.

 
Neutron писал(а) >>

Je peux voir que c'est même maintenant.

Mais ça ne peut pas être comme ça. Très probablement, si nous étendons les axes gauche et droit du graphique inférieur à une fois et demie la distance de la dernière barre de l'histogramme (afin de la voir), le miracle disparaîtra et nous verrons une cloche.

Eh bien, ou alors il y a une perforation dans l'analyse.

Dans les images, les données ne sont pas normalisées et en plus des différentes données, j'ai juste donné un exemple de ce que j'ai fait (tel qu'il apparaît dans le résultat)

Et voici le script, vous pouvez l'utiliser pour voir à quoi ressemblera la sortie (mais ne soyez pas trop pointilleux sur les données d'entrée - ce script a été fait juste pour l'exemple...).

//Type 0 - normalisation linéaire, 1 - non-linéaire

Dossiers :