Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 55

 
Ivan Butko #:








Nous en sommes arrivés aux paradigmes fondamentaux du trading : 1) Les schémas sont les mêmes pour l'achat et la vente, juste en miroir 2) Les schémas pour l'achat et la vente sont différents Oui, en effet, tant qu'il n'y a pas de preuve, nous pouvons nous appuyer sur certaines croyances ou certains faits.



Dans le cas présent, comme je l'ai dit plus haut, je m'appuie sur le fait que dans tous les TS connus, les conditions d'achat et de vente sont les mêmes, en miroir. Cela s'applique à la fois aux TS qui s'épuisent (99,9....%) et à ceux qui réussissent. J'insiste sur le fait qu'il s'agit de ceux qui réussissent.


Le fait que toute discrimination de l'un des types de transactions affecte négativement les transactions à l'achat et à la vente joue également, à mon avis, contre la deuxième position.



Par exemple, mon astuce concernant la fourchette - si elle n'est pas reflétée, mais différente (c'est-à-dire que de -1 à 0 et de 0 à 1 seront des zones complètement différentes avec des poids différents) - alors l'optimisation et la formation elles-mêmes auront l'air à la fois sur la période de test - effrayante et étriquée, et sur l'avant et l'arrière - effrayante et étriquée. Et si elle est reflétée - alors des transitions en douceur sont plus susceptibles de se produire.


Le fait que, comme nous l'avons déjà mentionné, si vous enseignez en 2020, c'est en 2021 qu'il y aura de l'eau qui coulera.
Ainsi, un NS sans miroir, ou un NS séparé pour BUY, qui est formé séparément, est assuré de verser dans toutes les séries d'optimisation en 2021. Vous les pressez l'un après l'autre, ils atteignent tous un pic.



Ils ont tous appris BUY, et en 2021 ils ouvrent BUY partout où ils le peuvent, ils ne savent pas comment en sortir, et seulement un peu SELL, et ensuite - on ne sait pas trop où. Mais je ne rejette pas cette variante et je teste tout ce qui me tombe sous la main ;)) Parce que chaque jour quelque chose de nouveau apparaît.

Toute théorie a le droit de l'être, bien sûr).

Prenons un indice ou une action, ils sont à la hausse depuis des années. Il y a clairement des schémas d'achat et de vente, je pense. Les symboles Forex, bien sûr, sont plats dans l'ensemble, mais ils montrent aussi des mouvements à long terme. Bref, tout doit être vérifié - comme toujours).

 
Andrey Dik #:

Il a le droit d'être n'importe quelle théorie, bien sûr.)

Prenons l'exemple d'un indice ou d'une action, qui monte depuis des années. Je pense qu'il existe des schémas d'achat et de vente clairement différents. Les symboles Forex, bien sûr, sont plats dans l'ensemble, mais ils montrent aussi des mouvements à long terme. En bref, tout doit être vérifié - comme toujours).



Il est important de comprendre que "différent" et "absent" ne sont pas la même chose. Une configuration miroir sur SELL dans une tendance haussière peut simplement être absente. Et apparaître lors d'une correction.






Par exemple, le schéma : 1) MA rapide croise MA lente - ouvert ACHETER 2) MArapide croise MA lente - ouvert VENDRE Le schémaVENDRE n'apparaîtra pas sur une tendance haussière plate sans corrections profondes. Mais lorsque les conditions seront réunies, il apparaîtra.




Les conditions sont les mêmes, elles sont en miroir. Et le NS, qui est entraîné séparément pour l'achat, cherchera l'achat même dans les corrections. Et sur une tendance profonde à la baisse, il se déversera, essayant d'ouvrir l'achat, parce qu'il a "suffisamment appris" et n'a jamais vu de tendance à la baisse. Une autre variante - l'entraînement sur toutes les tendances de toute la section. Il semblerait que ce soit logique, mais le problème est que tous les NS, comme on les appelle correctement (approximation ?), entraînent mieux les transactions qui rapportent le plus d'argent et leur attribuent des poids.

Au moins les architectures simples, y compris RNN, LSTM, CNN et autres. S'ils ont peu de neurones, de couches et de filtres, ils font exactement la même chose que les MLP, parfois même pire. S'il y a beaucoup de neurones (Python, logiciels tiers), ils se transforment en une moyenne mobile retardée qui prédit la valeur d'une mesure en arrière.

 
Ivan Butko #:

Il est important de comprendre ici que "différent" et "manquant" ne sont pas la même chose.

C'est de cela que je parle.

 

alimenter la grille d'entrée SMA décalée d'une demi-période - mais en tant qu'enseignant. N'enseignez pas la neuronique en prenant des transactions ou des zigzags au plafond.

S'il peut prédire la moyenne future avec une probabilité et des écarts suffisants, ce sera le graal.

 

L'EMA ( moyenne mobile exponentielle) présente une caractéristique intéressante.

Lorsque la clôture de la barre/candale est supérieure/inférieure à l'EMA, l'EMA est orientée vers le haut/bas en conséquence.

 
Qu'est-ce que la "formation" ?

 

Standard Bollinger et créé par un réseau neuronal.

La largeur du canal a été introduite dans le réseau neuronal.
 
Sergey Pavlov #:

Standard Bollinger et créé par un réseau neuronal.

L'entrée du réseau neuronal est la largeur du canal.

Amusant. L'intérêt de remplacer la Bollinger standard est d'obtenir les valeurs plus tôt ?

Que signifie "entraînement" pour vous ?

 

A ndrey Dik#:

Qu'est-ce que la "formation" ?



Merveilleuse question Si elle est entièrement divulguée dans le contexte d'un environnement virtuel (domaine de l'information), alors on peut supposer que vous pouvez aller dans la bonne direction, plutôt que de diffuser des connaissances académiques et des manuels.

Chaque fois que j'ai examiné des architectures, je me suis posé la question suivante : "Pourquoi comme ça ? Pourquoi ? Pourquoi ont-ils décidé de le faire de cette façon ?"


Non, il suffit de prendre - et de traduire l'architecture, qui a été écrite par des oncles-mathématiciens intelligents. J'ai même demandé dans le chat room, pourquoi le bloc LSTM a la forme qu'il a ?

En réponse, des absurdités tirées des manuels de MO : il s'agit d'une mémoire à long terme, bla bla bla,adaptée à l'apprentissage sur des tâches de classification et bla bla bla. Je demande "alors pourquoi exactement ainsi ?", la réponse est du genre "les mathématiciens l'ont décidé ainsi". Pas de théorie, pas de théorie de l'information, pas de théorie du traitement de l'information, pas de définition de l'apprentissage, pas de théories de l'apprentissage, etc.


A partir de la troisième fois, le chat a commencé à parler de fades et de pics de gradient. La LSTM résout ces problèmes.
Bon, d'accord, mais comment le résout-elle ? Avec desportes! Quelles portes !? Quelles portes ? -

un élément clé qui stocke l'information tout au long de la séquence.

Quelles informations ???? Les chiffres de l'entrée ?

Mais vous convertissez les chiffres entrants en un charabia incompréhensible et déformé, qui transforme les chiffres-couleurs RVB entrants en quelque chose d'illisible, une boîte noire de bouillie. Disons que vous convertissez certains chiffres en d'autres, mais apprendre en quoi ? La mémorisation ?






C'est donc de la mémorisation ! Et en quoi cela diffère-t-il de l'apprentissage ? En fin de compte, on ne sait pas très bien ce qu'ils essaient d'appliquer à ce qui n'est pas clair au second degré - le marché non stationnaire. En général, la question est excellente, elle a été posée il y a longtemps. Son déroulement est extrêmement intéressant.

 
Andrey Dik #:
Qu'est-ce que la "formation" ?



Merveilleuse question Si elle est entièrement divulguée dans le contexte d'un environnement virtuel (champ d'information), alors on peut supposer qu'il est possible de s'orienter dans la bonne direction, plutôt que de diffuser des connaissances académiques et des manuels.

Chaque fois que j'ai examiné des architectures, je me suis posé la question suivante : "Pourquoi comme ça ? Pourquoi ? Pourquoi ont-ils décidé de le faire de cette façon ?"


Non, il suffit de prendre - et de traduire l'architecture, qui a été écrite par des oncles-mathématiciens intelligents. J'ai même demandé dans le chat room, pourquoi le bloc LSTM a la forme qu'il a ?

En réponse, des absurdités tirées des manuels de MO : il s'agit d'une mémoire à long terme, bla bla bla,adaptée à l'apprentissage sur des tâches de classification et bla bla bla. Je demande "alors pourquoi exactement ainsi ?", la réponse est du genre "les mathématiciens l'ont décidé ainsi". Pas de théorie, pas de théorie de l'information, pas de théorie du traitement de l'information, pas de définition de l'apprentissage, pas de théories de l'apprentissage, etc.


A partir de la troisième fois, le chat a commencé à parler de fades et de pics de gradient. La LSTM résout ces problèmes.
Bon, d'accord, mais comment le résout-elle ? Avec desportes! Quelles portes !? Quelles portes ? -

un élément clé qui stocke l'information tout au long de la séquence.

Quelles informations ???? Les chiffres de l'entrée ?

Mais vous convertissez les chiffres entrants en un charabia incompréhensible et déformé, qui transforme les chiffres-couleurs RVB entrants en quelque chose d'illisible, une boîte noire de bouillie. Disons que vous convertissez certains chiffres en d'autres, mais apprendre en quoi ? La mémorisation ?






C'est donc de la mémorisation ! Et en quoi cela diffère-t-il de l'apprentissage ? En fin de compte, on ne sait pas très bien ce qu'ils essaient d'appliquer à ce qui n'est pas clair au second degré - le marché non stationnaire. En général, la question est excellente, elle a été posée il y a longtemps. Son déroulement est extrêmement intéressant.