FR H-Volatilité - page 10

 

Je ne sais pas comment attraper, surtout à un stade précoce, l'émergence de l'arbitraire.

L'entrée du réseau doit être l'avant-dernier segment du WP, et la sortie doit être le dernier segment du WP. Ensuite, avec une configuration de réseau appropriée, un choix judicieux de la fonction d'activation et une formation réussie, si seuls N derniers segments sont transmis à l'entrée, le réseau récupérera ces N et le suivant (c'est-à-dire le prochain) également. Il n'y a rien à faire pour modifier sa direction - elle est claire comme elle est, mais la taille ...

Peut-être que quelque chose en sortira.

 
Yurixx:

Je ne sais pas comment attraper, surtout à un stade précoce, l'émergence de l'arbitraire.

L'entrée du réseau doit être l'avant-dernier segment du WP, et la sortie doit être le dernier segment du WP. Ensuite, avec une configuration de réseau appropriée, un choix judicieux de la fonction d'activation et un apprentissage réussi, si seulement N derniers segments sont transmis à l'entrée, le réseau récupérera ces N et le suivant (c'est-à-dire le prochain) également. Il n'y a rien à faire pour modifier sa direction - elle est claire comme elle est, mais la taille ...

Peut-être que quelque chose en sortira.


Et les zigzags, sous quelle forme sont-ils les meilleurs, absolus ou relatifs ? Et faudra-t-il les normaliser ? Je pense que je veux une couche de Kohonen et l'étoile de Grossberg. Bien que je puisse me tromper.
 
Vinin:
...je pense que ça mérite une couche de Kohonen et une étoile de Grossberg.

Et la médaille d'honneur.)
Vinin, c'est quoi une étoile Grossberg ?

Yurixx, proposez un schéma fonctionnel NS pour ce cas, j'aimerais y réfléchir.

 
Neutron:
Vinin:
...je pense que la couche de Kohonen et l'étoile de Grossberg le demandent.

Et la médaille d'honneur :-)
Vinin, quel genre d'étoile est-ce ?

Yurixx, proposez un schéma fonctionnel NS à votre convenance pour ce cas, j'aimerais y réfléchir.


C'est à peu près ça ici http://ann.hotmail.ru/vs03.htm

Mais je vais me répéter (bien que ce ne soit plus moi), juste une citation :

Lors de l'apprentissage d'un réseau de contre-propagation, des vecteurs d'entrée sont associés à des vecteurs de sortie correspondants. Ces vecteurs peuvent être binaires ou continus. Après l'entraînement, le réseau génère des signaux de sortie qui correspondent aux signaux d'entrée. La généralité du réseau permet d'obtenir une sortie correcte lorsque le vecteur d'entrée est incomplet ou déformé.
En mode apprentissage, le signal d'entrée est envoyé au réseau et les poids sont corrigés de manière à ce que le réseau produise le signal de sortie souhaité.
La couche de Kohonen fonctionne selon la règle du "winner takes all". Pour un vecteur d'entrée donné, un seul neurone de cette couche produit un un logique, tous les autres produisent des zéros. La sortie de chaque neurone de Kohonen est juste la somme des éléments pondérés des signaux d'entrée.
La sortie des neurones de la couche Grossberg est également une somme pondérée des sorties des neurones de la couche Kohonen. Mais chaque neurone de la couche de Grossberg génère un poids qui relie ce neurone au seul neurone de Kohonen dont la sortie est non nulle.
Au stade du prétraitement, les signaux d'entrée sont normalisés pour les vecteurs d'entrée.
Au stade de l'apprentissage, la couche de Kohonen classe les vecteurs d'entrée en groupes de vecteurs similaires. Cela se fait en ajustant les poids de la couche de Kohonen de sorte que des vecteurs d'entrée similaires activent le même neurone de la couche. Il est difficile de prévoir à l'avance quel neurone sera activé par un signal d'entrée particulier, car la couche de Kohonen apprend sans professeur.
La tâche de la couche de Grossberg est alors de produire les sorties souhaitées. L'apprentissage de la couche de Grossberg est un apprentissage assisté par l'enseignant. Les sorties des neurones sont calculées comme dans le fonctionnement normal. Ensuite, chaque poids n'est corrigé que s'il est connecté à un neurone de Kohonen qui a une sortie non nulle. Le montant de la correction du poids est proportionnel à la différence entre le poids et la sortie souhaitée du neurone de Grossberg.
Dans le mode de fonctionnement en réseau, le signal d'entrée est présenté et le signal de sortie est généré.
Dans le modèle de réseau de contre-propagation complet, il est possible de générer des signaux de sortie à partir de signaux d'entrée et vice versa. Ces deux actions correspondent à la propagation vers l'avant et vers l'arrière des signaux.

 
Vinin:
Et les zigzags, sous quelle forme est-il préférable de les alimenter, en absolu ou en relatif ? Et la normalisation sera-t-elle nécessaire ? Je pense qu'il s'agit de la couche de Kohonen et de l'étoile de Grossberg. Bien que je puisse me tromper.

Neutron:

Yurixx, proposez à votre discrétion le schéma fonctionnel NS pour ce cas, j'aimerais y réfléchir.


Je ne peux pas proposer un organigramme. L'histoire de cette pensée est la suivante.

Au début, je pensais vraiment que la SN devait être composée de deux couches - Kohonen et Grosberg. Le problème est que pour Kaga chaque segment peut être quelconque, de 1 à ... Supposons que je veuille entrer N segments de WP et limiter la taille des segments de 1 à 50. Alors le nombre maximal de neurones dans la couche de Kohonen (avant le regroupement) est de 50^N. C'est beaucoup. C'est pourquoi je pensais à Renko. Pour H=10, la taille du segment similaire de ZZ varie de 1 à 5. Cela ne représente que 5^N neurones - ce qui est déjà acceptable pour les petites valeurs de N. Et tous les segments plus grands que 5H peuvent être coupés avec 5H.

Ensuite, la couche de Kohonen reconnaît le motif et excite le neurone correspondant. Le dernier segment de ZZ (non inclus dans ce N) est envoyé à la couche de Grosberg. La couche de Grosberg contient, disons, 100 neurones, dont chacun correspond à la taille du dernier segment ZZ, de 1 à 100. Ainsi, un neurone de la couche de Grosberg est excité. Pendant l'apprentissage, le poids de la connexion entre le neurone excité de Kohonen et le neurone excité de la couche de Grosberg est augmenté de 1. Il ne s'agit donc pas d'un réseau de contre-propagation. Mais c'était mon "plan" :-))

Et puis j'ai réalisé qu'après la formation, en entrant des WP, la couche de Grosberg me montrerait simplement à la sortie une fonction de distribution pour le futur segment WP. C'est en gros ce que je visais. Cependant, il y a deux "mais" ici.

1. je peux construire une telle distribution beaucoup plus rapidement et sans aucun NS.

2. L'historique de près de deux ans des points caractéristiques contient environ 630000 barres. Kagi ZZ avec le paramètre H=10 a environ 17400 segments dans cet historique. Et le nombre de neurones dans la couche de Kohonen avec N=6 sera de 15625, c'est-à-dire qu'il y aura une moyenne de 1,1 valeur expérimentale pour chaque motif. Quel genre de distribution est-ce ? :-)

Ainsi, le regroupement associé à la transition vers le partitionnement renko est désastreusement insuffisant. Nous devons soit regrouper les PC en utilisant la couche de Kohonen, soit (ce qui est plus probable) passer à des idées plus constructives.

PS

Ne me jugez pas sévèrement pour ma naïveté. Mon expérience des réseaux se résume à 1,5 livre lu et aucune mise en œuvre.

 

Je suggère de commencer par le plus simple. Divisons ZZ en constructions élémentaires constituées d'un sommet. Normalisons les côtés par la longueur du premier sommet et gardons un chiffre significatif après la virgule. Dans ce cas, nous avons 17400 constructions, divisées (pour le pas H=10) en 50/2H*10=25 groupes (approximativement) sur la base du "rapport d'aspect". C'est-à-dire que dans chaque groupe nous avons plusieurs centaines de modèles - déjà des statistiques.

Il ne nous reste plus qu'à l'écrire en NS et à découvrir comment le FR de la longueur de mouvement prédite (vecteur vert moins H) dépend de la valeur de la marge gauche. Sauf que, chers collègues, la NS n'est pas vraiment nécessaire pour ce problème. Ou est-ce que je rate quelque chose ?

P.S. La figure de droite montre le PD du rapport d'aspect ZZ à un sommet. Il s'agit de constructions H=5,10,15 et 20 pips pour EURUSD (ticks). Il semble que l'idée de normalisation soit judicieuse et qu'elle permette une réduction notable de la dimensionnalité des données d'entrée.

 
Neutron:

Il reste à faire entrer cela dans NS et à comprendre comment le FR de la longueur de mouvement prédite (vecteur vert moins H) dépend de la valeur de l'arête gauche. Sauf que, chers collègues, la NS n'est pas vraiment nécessaire pour ce problème. Ou est-ce que je rate quelque chose ?

P.S. La figure de droite montre le PD du rapport latéral ZZ à un sommet. Il s'agit de H=5,10,15 et 20 pips pour EURUSD (ticks). Il semble que l'idée de normalisation soit judicieuse et qu'elle permette une réduction notable de la dimensionnalité des données d'entrée.


Je ne pense pas que NS soit nécessaire pour cela non plus. Et l'option de normalisation semble valable, je n'y avais pas pensé.
 

Neutron

Je n'arrive pas à comprendre ce que vous avez construit. La FR (fonction de distribution) devrait avoir un aspect un peu différent https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9.

Peut-être s'agit-il de la fonction de densité de probabilité (SP) ? Si c'est le cas, pouvez-vous répéter, avec un peu plus de détails, ce qui se trouve sur le graphique de droite (ce qui se trouve sur les axes X et Y).

 

à Prival

Nous avons effectué une série de n calculs (la longueur du côté droit du Zig-Zag exprimée en unités de longueur du côté gauche) et obtenu un ensemble de valeurs x1,...,xi,...,xn. C'est ce qu'on appelle l'échantillon. On trace les valeurs xi de x sur l'axe des abscisses. Divisez l'axe des x en intervalles égaux dx et comptez le nombre de calculs nk qui donnent des valeurs de x comprises dans l'intervalle xk+-1/2dx (xk étant la coordonnée du centre de l'intervalle sur l'axe des x). Sur chaque intervalle, construire un rectangle de hauteur nk et de largeur dx. Le diagramme ainsi obtenu s'appelle un histogramme. Il montre la densité de la distribution des résultats de calcul le long de l'axe des x.

Si le nombre de calculs est important, la largeur de l'intervalle peut être réduite (avec beaucoup plus d'échantillons dans chaque intervalle). Au lieu d'un histogramme, nous obtiendrons un graphique sur lequel une valeur proportionnelle à la fraction de nk/n échantillons tombant dans chaque intervalle est tracée sur l'axe des ordonnées. Ce graphique est appelé courbe de distribution ou fonction de distribution ; la fonction elle-même est appelée fonction de densité de probabilité.

P.S. La PDF peut être normalisée, dans ce cas l'intégrale de celle-ci sur toute la plage est identique à 1.

 

Neutron

Merci. Je le vois maintenant. Seulement vous avez construit la fonction de densité de probabilité (PDF) et non la fonction de distribution (PDF), car la PDF a 3 propriétés. 1. Il (PDF) est non décroissant. 2) Si x tend vers l'infini, alors le PDF tend vers 1. Naturellement, si tout est normalisé. La PS et la PDF sont liées par une intégrale (la PDF est une intégrale de la PS).

Ce graphique est appelé courbe de distribution ou fonction de distribution et la fonction elle-même est appelée fonction de densité de probabilité." n'est pas tout à fait correct