"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 96
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Maxim, tant que le temps entre les valeurs BP et la grille ne calculera pas les cycles du marché (ce qu'il fait, je vous l'assure), rien ne fonctionnera. Vous devez effectuer des recherches sur des échantillons d'une session de négociation à un an. L'échantillon doitcorrespondre strictement à la période et rien d'autre.
C'est dans la structure temporelle que le marché BP diffère de SB, je l'ai écrit à plusieurs reprises.
C'est exactement ça, mais je n'ai pas encore formulé d'approche générale du point de vue du MO à ce sujet :)
Au fait, cela pourrait-il remplacer Hearst ?https://en.wikipedia.org/wiki/Sample_entropy
Ou aussi un retard.
Disons-le ainsi - "Ça ne marche presque pas"... mais ce qui reste de l'ensemble "Ne marche pas" et doit être gratté en miettes.
il est même parfois gratté, mais pas jusqu'à la profondeur totale de l'échantillon.
Ce n'est pas différent. C'est une fonction ordinaire. Entrée d'un paramètre, sortie d'une valeur.
Je vois.
Oui, mais cette valeur unique à l'entrée d'un neurone est additionnée à partir des sorties de tous les neurones de la couche précédente (elles sont additionnées avec une multiplication par des coefficients).
Exactement, mais je n'ai pas encore formulé d'approche générale du point de vue du ministère de la Défense à ce sujet :)
Au fait, pourrait-il remplacer Hearst ?https://en.wikipedia.org/wiki/Sample_entropy
Ou un retard aussi.
C'est possible. De mon point de vue, l'entropie des processus est un parfait indicateur de discontinuité. Il devrait l'être. Mais je dois faire des recherches et je suis trop paresseux pour le faire - laissons quelqu'un d'autre essayer.
Quant au temps... Sur le marché, il y a une périodicité des processus comme une structure imbriquée. Sauf qu'il n'est pas facile de calculer ces périodes. Gunn avait le sien, j'ai eu le mien pour une raison quelconque. Je ne sais pas... Nous verrons à l'entraînement... Mais, jusqu'à ce que je commence à travailler avec des périodes de temps spécifiques, mon TS fonctionnait à +0% de profit comme sur SB.
C'est possible. De mon point de vue, l'entropie des processus est un indicateur parfait de perturbation. Il devrait l'être. Mais, cela nécessite des recherches, et je suis déjà paresseux - laissez quelqu'un d'autre essayer maintenant.
Quant au temps... Sur le marché, il y a une périodicité des processus comme une structure imbriquée. Sauf qu'il n'est pas facile de calculer ces périodes. Gunn avait le sien, j'ai eu le mien pour une raison quelconque. Je ne sais pas... Nous verrons à l'entraînement... Mais, jusqu'à ce que je commence à travailler avec des délais spécifiques, mon TS fonctionnait en +0% de profit comme sur SB.
Je vais faire des recherches)) le code est simple
le regroupement de la volatilité est ce qui différencie un marché efficient (stressé) d'un SB, ouais, c'est la seule périodicité, je suppose. Et c'est exactement ce qui est lié aux cycles de temps
C'est du moins l'opinion générale (ou la conception erronée) des économétriciens.Oui, sauf que cette seule valeur, envoyée à l'entrée d'un neurone, est additionnée à partir des sorties de tous les neurones de la couche précédente (additionnées avec une multiplication par des coefficients).
Ok. Nous devons trouver une analogie pratique. Le diagramme montre que les couches ont un nombre différent de neurones. Si vous retournez le diagramme, vous obtenez une pyramide. Le résultat passe donc par plusieurs étapes de traitement. Plus il y a de neurones dans la couche, plus cette couche reçoit et traite de données. Si la couche suivante produit moins de données que la précédente, cela signifie que les données sont généralisées de couche en couche ?
Maintenant que j'y pense... et les pyramides ont été construites par les anciens... cherchez des analogies ici.
Je vais faire une petite recherche ;) le code est simple
Le code est simple, mais nos données d'entrée ne correspondent pas tout à fait :
Wiki entropy : ".... mesure la déviation d'un processus réel par rapport à un processus idéal. ... Mathématiquement, l'entropie est définie comme une fonction de l'état du système, définie par rapport à une constante arbitraire."
и ?
Dans le domaine de la RV financière, quel pourrait être le marché idéal ? - qui sait, OK, que ce soit la première hypothèse, marché parfait = onde sinusoïdale !
comme intrants, nous avons au moins 3 prix : haut, bas, clowes - et lequel devons-nous utiliser ? - OK, que ce soit la deuxième hypothèse, le prix médian est roi !
de quoi mesurons-nous l'origine et la destination ? - début de journée ? semaine ? jour d'expiration ? séance de négociation? - OK, début de la journée, que ce soit la troisième hypothèse.....
au total 3 questions, 3 fois nous supposons que nous avons raison ? ici le problème se résume à la combinatoire : combien de fois nous déduisons l'hypothèse initiale correcte et combien de fois notre exploration plus poussée conduit à la bonne évaluation du marché... sur l'histoire ))))
l'entropie sonne bien, mais j'ai creusé ce sujet il y a quelques années du point de vue de l'entropie informationnelle, la seule conclusion est que si un modèle commence à se former ou la répétition la plus proche des combinaisons de chandeliers dans l'histoire, cela ne fonctionnera pas, parce que les modèles et les corrélations simples ne fonctionnent pas sur le marché, la même chose s'applique à eux quand ils deviennent évidents - ils cessent d'apparaître )))). J'ai l'habitude de me dire dans de tels cas - vous n'êtes pas le plus intelligent, ces personnes intelligentes représentent la moitié du monde par les moniteurs)))
OK. Nous devons trouver une analogie pratique. Le diagramme montre que les couches ont un nombre différent de neurones. Si nous retournons le diagramme, nous obtenons une pyramide. Le résultat passe donc par plusieurs étapes de traitement. Plus il y a de neurones dans la couche, plus cette couche reçoit et traite de données. Si la couche suivante produit moins de données que la précédente, cela signifie que les données sont généralisées de couche en couche ?
s'il y a moins de neurones dans la couche que dans la précédente, il y a compression de l'information, et, "déballage" - s'il y a plus de neurones que dans la précédente.