"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 97

 
Реter Konow:
Ok. Nous devons trouver une analogie pratique. Le diagramme montre que les couches ont un nombre différent de neurones. Si nous retournons le diagramme, nous obtenons une pyramide. La sortie passe donc par plusieurs étapes de traitement. Plus il y a de neurones dans la couche, plus cette couche reçoit et traite de données. Si la couche suivante produit moins de données que la précédente, cela signifie que les données sont généralisées de couche en couche ?

Oui, ils sont généralisés. Si l'entrée est, disons, de 100 barres, la sortie devrait être deux commandes : acheter ou vendre.

Il ne s'agit pas de faire en sorte qu'un réseau neuronal contienne beaucoup de données, mais qu'il corresponde à la quantité de données sur laquelle il est formé. Si le réseau est trop grand et les données insuffisantes, il apprendra facilement mais ne pourra pas généraliser à d'autres données. Le nombre de neurones doit donc être aussi faible que possible. Plus de trois couches sont en quelque sorte inutiles. Dans la première couche, le nombre de neurones correspond à la taille du modèle de données d'entrée, et dans la dernière - au nombre de variantes résultantes. Et dans l'intermédiaire, il est aussi petit que possible, mais pas plus petit que dans la sortie.

 
Igor Makanu:

le code est simple, mais nos données d'entrée ne correspondent pas tout à fait :

Wiki entropy : ".... mesure la déviation d'un processus réel par rapport à un processus idéal. ... Mathématiquement, l'entropie est définie comme une fonction de l'état du système, définie par rapport à une constante arbitraire."

и ?

Dans le domaine de la RV financière, quel pourrait être le marché idéal ? - qui sait, OK, que ce soit la première hypothèse, marché parfait = onde sinusoïdale !

comme intrants, nous avons au moins 3 prix : haut, bas, clowes - et lequel devons-nous utiliser ? - OK, que ce soit la deuxième hypothèse, le prix médian est roi !

de quoi mesurons-nous l'origine et la destination ? - début de journée ? semaine ? jour d'expiration ? séance de négociation? - OK, début de la journée, que ce soit la troisième hypothèse.....

au total 3 questions, 3 fois nous supposons que nous avons raison ? ici le problème se résume à la combinatoire : combien de fois nous déduisons l'hypothèse initiale correcte et combien de fois notre exploration plus poussée conduit à la bonne évaluation du marché... sur l'histoire ))))


l'entropie sonne bien, mais j'ai creusé ce sujet il y a quelques années du point de vue de l'entropie informationnelle, la conclusion est la suivante - si un modèle commence à se former ou la répétition la plus proche des combinaisons de chandeliers sur l'histoire - cela ne fonctionnera pas, parce que ce qui est évident pour tout le monde ne fonctionne pas sur le marché, la même chose avec les modèles et les corrélations, une fois qu'ils deviennent évidents - ils cessent d'apparaître )))), j'ai l'habitude de me dire dans ces cas - vous n'êtes pas le plus intelligent, ces personnes intelligentes vivent à l'autre bout du monde loin des moniteurs)))

Non, écoutez, cette entropie estime la quantité d'information dans BP. Plus l'entropie est faible, plus l'information est importante (les cycles sont plus manifestes). C'est-à-dire que la mesure est relative et qu'il faut l'utiliser par rapport, par exemple, à d'autres États. Là où il est le plus bas, c'est là où il faut négocier - un exemple approximatif

bien et l'analogie avec Hearst, mesure dans la fenêtre de sk.
 
Andrey Dik:

S'il y a moins de neurones dans la couche que dans la précédente, l'information est comprimée, et, "non comprimée", s'il y a plus de neurones que dans la précédente.

OK. Merci. Je vais extrapoler à partir des informations que j'ai reçues pour le moment. Plus tard, je demanderai à d'autres experts ici. ))
 

A propos de l'entropie :

https://habr.com/ru/post/305794/

Введение в понятие энтропии и ее многоликость
Введение в понятие энтропии и ее многоликость
  • habr.com
Как может показаться, анализ сигналов и данных — тема достаточно хорошо изученная и уже сотни раз проговоренная. Но есть в ней и некоторые провалы. В последние годы словом «энтропия» бросаются все кому не лень, толком и не понимая, о чем говорят. Хаос — да, беспорядок — да, в термодинамике используется — вроде тоже да, применительно к сигналам...
 
Dmitry Fedoseev:

Oui, ils sont généralisés. Si l'entrée est, disons, de 100 barres, la sortie devrait être deux commandes : acheter ou vendre.

Il ne s'agit pas de faire en sorte qu'un réseau neuronal contienne beaucoup de données, mais qu'il corresponde à la quantité de données sur laquelle il est formé. Si le réseau est trop grand et que les données ne sont pas suffisantes, il apprendra facilement mais ne pourra pas généraliser à d'autres données. Le nombre de neurones doit donc être aussi faible que possible. Plus de trois couches sont en quelque sorte inutiles. Dans la première couche, le nombre de neurones correspond à la taille du modèle de données d'entrée, et dans la dernière - au nombre de variantes résultantes. Et dans l'intermédiaire, elle doit être aussi petite que possible, mais pas plus petite que dans la sortie.

Ok. Je dois y réfléchir. Je vous le ferai savoir plus tard.
 
Dmitry Fedoseev:

.... Plus de trois couches sont en quelque sorte inutiles. Dans la première couche, le nombre de neurones correspond à la taille du modèle de données d'entrée, dans la dernière couche - au nombre de variantes résultantes. Et dans la couche intermédiaire, il est aussi petit que possible, mais pas plus petit que dans la couche de sortie.

Il a été prouvé mathématiquement (j'ai rencontré la preuve dans certains livres) qu'un réseau avec une couche interne peut approximer n'importe quelle fonction continue, et qu'un réseau avec deux couches peut également approximer des fonctions avec des lacunes. Il découle donc de cette preuve que le nombre de couches supérieur à 2 n'a aucun sens pratique et ne conduit qu'à un réentraînement.

c'est-à-dire qu'un maximum de 2 couches internes est nécessaire (et dans de nombreux cas, une seule suffit).
 
Maxim Dmitrievsky:

Non, écoutez, cette entropie évalue la quantité d'informations dans BP. Plus l'entropie est faible, plus l'information est importante (plus de cycles se manifestent). C'est-à-dire que la mesure est relative et qu'il faut l'utiliser par rapport, par exemple, à d'autres États. Là où elle est plus basse, elle est là pour faire du commerce - un exemple approximatif.

et l'analogie avec Hurst, mesure dans la fenêtre sk.

Maxim, tu as raison, mais en théorie...

Voici le tableau, que pouvons-nous considérer comme la quantité d'informations ? 1 bar ? - c.-à-d., prenez un groupe de barres - nous avons une certaine période, alors en quoi notre approche est-elle meilleure que celle qui consiste à évaluer la situation actuelle du marché en utilisant le RSI, le stochastique ou le diagramme des puces ? - la même chose en aucune façon, imho


l'application du TS doit être basée sur le contexte du marché - oui, mais le contexte peut difficilement être formalisé, certaines personnes essaient de prendre le plat actuel comme contexte et tradent un plat, d'autres dessinent une ligne de tendance et attendent une percée .... et qui a raison ?

 
Igor Makanu:

Maxim, tu as raison, mais en théorie.

Voici un graphique, que pouvons-nous considérer comme la quantité d'informations ? 1 bar ? - Pas sérieusement, prenez un groupe de barres - nous avons une certaine période, alors en quoi notre approche est-elle meilleure que l'évaluation de l'état actuel du marché en utilisant le RSI, le stochastique, les puces ? - la même chose en aucune façon, imho


l'application du TS doit être basée sur le contexte du marché - oui, mais le contexte peut difficilement être formalisé, certaines personnes essaient de prendre le plat actuel comme contexte et tradent un plat, d'autres dessinent une ligne de tendance et attendent une percée .... qui a raison ?

Je vois... optimiser la fenêtre, regarder le changement d'entropie, entraîner le modèle avec différentes fenêtres, et tirer des conclusions. Il est clair qu'il montre le passé, mais si nous réduisons l'horizon de prévision et utilisons le MOS pour remplir ces intervalles, nous obtiendrons les informations suivantes

C'est un peu ce que je dis.

Il ne vous dira pas s'il y a des cycles périodiques ou non, il vous dira s'il y a de l'entropie. Je ne dis pas que ça va marcher, je dis que vous devez faire des recherches.

 
Maxim Dmitrievsky:

Je vois... optimiser la fenêtre, regarder les changements d'entropie, entraîner le modèle avec différentes fenêtres, et tirer des conclusions. Il est clair qu'il montre le passé, mais si nous abaissons l'horizon de prévision et utilisons le MOS pour remplir ces intervalles, nous obtiendrons les informations suivantes

C'est un peu ce que je dis.

Il ne vous dira pas s'il y a des cycles périodiques ou non, il vous dira s'il y a de l'entropie. Je ne dis pas que ça va marcher, je dis que ça doit être étudié.

Je ne vais pas tout demander, mais je suis fatigué de lire... Quelle est la précision de l'apprentissage de NS dans une fenêtre glissante ?

- Si nous recherchons des informations périodiques - oui, c'est exact, le NS trouvera des boucles cachées et ajustera ses propres coefficients de pondération.

- si nous apprenons au NS à reconnaître, oui c'est au NS d'apprendre.

- il n'y a pas de cycles périodiques dans le marché, quelque part j'ai eu un RE qui dessine le temps de formation du sommet du RE, à n'importe quel réglage du RE, il n'y a jamais de répétitions périodiques, il n'y a pas une telle chose que la prochaine rupture du RE sera dans des barres comme 5,11,7,3....,11,7,3.... - il y aura toutes sortes de combinaisons mais pas de répétitions.


Si nous entraînons NS dans une fenêtre glissante d'informations non périodiques, que se passe-t-il avec les poids ? - si je me souviens bien, il n'est même pas possible d'entraîner un réseau monocouche sur l'ue, seulement multicouche - une fenêtre glissante peut-elle être utilisée pour ce genre de choses ? j'ai des doutes.


ZS : datamining - oui, si vous parvenez à filtrer les données qui porteront l'information - alors le Graal est à vous ;)

 
Igor Makanu:

Je ne peux pas tout demander, et je suis fatigué de lire... Est-il correct d'entraîner NS dans une fenêtre glissante ?

- Si nous recherchons des informations périodiques - oui, c'est exact, le NS trouvera des cycles cachés et ajustera ses propres coefficients de pondération.

- si nous apprenons au NS à reconnaître, oui c'est au NS d'apprendre.

- il n'y a pas de cycles périodiques dans le marché, quelque part j'ai eu un RE qui dessine le moment de la formation du sommet du RE, à n'importe quel réglage du RE, il n'y a jamais de répétitions périodiques, il n'y a pas une telle chose que la prochaine rupture du RE sera dans les barres comme 5,11,7,3....,11,7,3.... - il y aura toutes sortes de combinaisons mais pas de répétitions.


Si nous entraînons NS dans une fenêtre glissante d'informations non périodiques, que se passe-t-il avec les poids ? - si je me souviens bien, il n'est même pas possible d'entraîner un réseau monocouche sur l'ue, seulement multicouche - une fenêtre glissante peut-elle être utilisée pour ce genre de choses ? j'ai des doutes.


ZS : datamining - oui, si vous parvenez à filtrer les données qui porteront l'information - alors vous avez le graal ;)

Ils ne doivent pas être strictement périodiques, mais ils ne doivent pas non plus être du bruit. L'image est probabiliste, pas stricte. La fenêtre coulissante est destinée à l'indicateur d'entropie ainsi que le nombre de caractéristiques pour la formation, vous pouvez opter pour eux.

Si les échantillons sont incohérents, vous n'obtiendrez rien, c'est pourquoi il y a tant d'erreurs 50-50. Et une boucle ne peut pas être contradictoire, soit elle existe, soit elle n'existe pas, sous quelque forme que ce soit. Si vous ajoutez un grand nombre de boucles différentes, elles ne se contredisent pas.

Le cycle/non-cycle est un concept relatif au sein de la métrique entropique.