L'étiquette du marché ou les bonnes manières dans un champ de mines - page 25

 
registred писал(а) >>

Messieurs, pouvez-vous me dire comment vous gérez le vol dans des dépressions locales peu profondes et des poids initiaux incurvés ? Je comprends qu'au début, ils n'ont pas d'effet sur l'entraînement, mais par la suite, ils commencent à avoir un impact considérable sur les résultats.

J'ai pris l'habitude de réentraîner le réseau à chaque étape. Évidemment, dans cette configuration, le réseau peut occasionnellement être "déplacé", mais à l'étape suivante, il est exactement là où il doit être. Mon idée est basée sur le fait que la probabilité que le réseau apprenne la "mauvaise" chose est sensiblement inférieure à 1, et en général, sur un grand échantillon de réentraînement, la contribution des "enfants fous" est minime.

paralocus a écrit >>.

Je suis un peu confus sur la façon de réduire le multiplicateur de contribution d'une autre époch..... J'ai des poids de couche de sortie très faibles à la fin de la formation, et des poids de couche cachée importants au contraire.

Alerte : W2 [0] = -0.0414 W2 [1] = 0.0188 W2 [2] = -0.0539

Alerte : W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5]=-37.5899

Ici, vous devrez réfléchir par vous-même. Je ne prédis que les signes des augmentations de prix attendues (+/-1). Cela a à voir avec la spécificité du trading (voir L'équation de base du trading quelques posts plus haut), et le fait qu'essayer de prédire l'amplitude et le signe simultanément rend la tâche catastrophiquement difficile (le nombre d'architecture de CT et d'époques d'entraînement augmente). La puissance d'un PC domestique ne suffirait pas ici, même si nous ne recyclons pas la grille à chaque étape ! Ainsi, traditionnellement, lors de la prédiction des valeurs absolues de BP, on contrôle l'erreur d'apprentissage à chaque époque jusqu'à ce qu'elle devienne inférieure à certaines. Ce processus ne peut pas converger - la grille est suspendue dans une boucle infinie et des mécanismes sont nécessaires pour la faire sortir de son état comateux. Lorsque j'ai expérimenté cela, j'ai contrôlé le taux de réduction de l'erreur d'apprentissage et lorsque la condition était remplie - j'ai redéfini tous les poids, c'est-à-dire que j'ai pratiquement recommencé l'apprentissage. A ce moment-là, j'ai dû trouver le nombre approximatif d'époques nécessaires pour l'apprentissage et le poids de chaque époque (coefficient avant correction de chaque poids) a diminué par la loi 1-j/N. Où j prend des valeurs de 1 à N. Après avoir abandonné l'amplitude prédictive, le réseau a commencé à apprendre rapidement et efficacement, de sorte qu'il est devenu possible d'introduire un nombre fixe d'époques d'apprentissage sans contrôler l'erreur d'apprentissage.

De même, en passant d'une prédiction à l'autre, pour réduire le nombre d'époques, j'ai conservé les valeurs des poids du réseau sans les randomiser. Parfois j'avais un effet de "collage" de certains poids qui se manifestait par leur augmentation infinie ou leur tendance à zéro. J'ai fait face à ce problème de la manière suivante : lorsque je fais une nouvelle prévision, j'ai influencé tous les poids avec l'opérateur th(). Il a fonctionné efficacement.

 
Neutron >> :
... Un nombre fixe d'époques d'apprentissage sans contrôle de l'erreur d'apprentissage.

>> le problème a été résolu !

 

à Neutron

Je suis en train de réécrire toutes mes deux couches sous une forme plus compacte. Je veux réduire tout cela à des opérations matricielles de deux ou trois fonctions. Dès que je l'aurai terminé, je le posterai.

En même temps, je vais "couper" la prédiction de l'amplitude. En fait, le signe est plus que suffisant.

 
Neutron >> :

C'est là que vous devez penser par vous-même.

Vous voulez dire qu'il faut réfléchir à la manière de passer du calcul de l'erreur d'amplitude au calcul de l'erreur de signe ?

Vous voulez dire ici ?

d_2_out = test - out;                                             // Ошибка на выходе сетки
 

Non. Je parlais en termes généraux. Évidemment, vous allez suivre votre propre chemin...

 

Il y a quelques questions que, pour éviter toute agitation inutile ici, j'aimerais poser en ligne privée.

Je sais que vous n'êtes pas un amateur...

Je peux ?

 
Vous demandez !
 
Neutron >> :
Vous demandez !

>> ::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: :.)

 
Répondu.
 
Neutron >> :

J'ai pris l'habitude de réentraîner le réseau à chaque étape. Évidemment, dans cette configuration, le réseau peut parfois être "au mauvais endroit", mais dans l'étape suivante, il est déjà au bon endroit. L'idée est basée sur le fait que la probabilité que le réseau soit formé de manière "erronée" est bien inférieure à 1, donc dans l'ensemble, sur un grand échantillon de recyclage, la contribution des "enfants fous" est minime.

Je ne suis pas tout à fait sûr de ce que vous entendez par "recyclage à chaque étape" ?