Article : Prévision des prix avec des réseaux neuronaux - page 9

 
PraVedNiK. Ou peut-être qu'il est temps de passer d'un neurone unique à un neurone normal. C'est un peu différent, et tout est différent en général.
 
Vinin, vous avez écrit une fois que vous avez traité avec NS et même que dans le championnat votre EA est une implémentation de NS. En d'autres termes, comparé à moi, vous êtes un expert. Conseillez-moi ce qu'il faut lire pour comprendre cet énorme sujet. Le but n'est pas seulement de comprendre les principes de fonctionnement et de conception d'un réseau, mais de le comprendre assez profondément pour utiliser MQL pour écrire à la fois le réseau lui-même (que j'espère planifier lorsque je comprendrai le sujet) et toute l'infrastructure, liée à sa formation.
 
Yurixx:
Vinin, vous avez écrit une fois que vous avez traité avec NS et même que dans le championnat votre EA est une implémentation de NS. En d'autres termes, comparé à moi, vous êtes un expert. Conseillez-moi ce qu'il faut lire pour comprendre ce vaste sujet. Le but - non seulement de comprendre les principes de la mise en réseau, mais de le comprendre assez profondément pour utiliser MQL5 pour écrire le réseau lui-même (que j'espère planifier lorsque je comprendrai le sujet) et toute l'infrastructure, liée à sa formation.

Je ne me considère pas comme un spécialiste, mais je peux toujours faire un réseau si nécessaire.
 
Vinin:
PraVedNiK. Ou peut-être qu'il est temps de passer d'un neurone unique à un neurone normal. C'est un peu différent, et tout est différent en général.
Y a-t-il une raison de passer à un multicouche ? ... En fait, tout est logique sur le plan graphique :

Le perceptron est une ligne qui divise 2 classes : les boules vertes sont"Le prix va très probablement monter",
Les rouges sont "Prix ...en baisse". Mais le problème est qu'il y a une zone désordonnée où les balles sont mélangées.
sont toutes intercalées. Certaines personnes intelligentes / y compris - et ce forum /, après avoir lu des livres
Shumsky et d'autres suggéreront : nous devrions passer à un multicouche pour faire davantage de ces lignes de démarcation.
Vous pouvez le faire ou non de cette manière, vous pouvez mettre un filtre dans votre EA DiRoLnoDoLgo:
High[1]<High[2] && Low[1]<Low[2] && iOsMA... et High[1]>High[2] && Low[1]>Low[2]&& iOsMA... ,
et il enlèvera environ 2/3 de ces bosses hémorroïdaires, et - GAUCHE ! voir la figure.. :

Ensuite, après cela, il est plus facile de tracer la ligne de démarcation - cela signifie t o u g h .
C'est l'objectif deDiRoLnoDoLgo : supprimer au moins partiellement cette
partiellement - les résultats de l'analyse prospective /dans les 5 derniers mois/ se sont avérés être
Les résultats de l'analyse prospective pour les 5 derniers mois se sont avérés très bons : bénéfice brut = +16 chiffres, gain attendu = + 2 chiffres /presque/, rentabilité = 30.
 
PraVedNiK:
Y a-t-il une raison de passer aux multicouches ?... En fait, tout cela a un sens graphique : .....

Je n'aurais jamais pensé que quelqu'un remettrait en question l'utilisation de mailles multicouches pour améliorer les performances de classification. =)

Je vous recommande de lire ce que Jan LeCun écrit à ce sujet - http://yann.lecun.com/exdb/mnist/index.html. Cependant, le sujet y est un peu différent - la reconnaissance des caractères. Quoi qu'il en soit, les mailles monocouches ont donné les pires résultats - 8,4 %. Cependant ! L'un des modèles multicouches (bicouche, avec 300 neurones dans la couche cachée) a obtenu un très bon résultat - 1,6 % d'erreur. En d'autres termes, l'ajout d'une seule couche rend le maillage beaucoup plus "puissant".

Je ne pense vraiment pas que la réduction de la taille de l'échantillon de formation soit une bonne option. Il est préférable de parvenir à une plus grande séparabilité des classes, c'est-à-dire de transformer les données d'entrée de manière à éviter les conflits (par exemple, en augmentant l'intervalle de temps de visibilité des cotations). Je me souviens que le livre de fxclub "Trading - your way to financial freedom" recommande d'envoyer plus d'une paire de cotations à la grille.

Oui, il y a un autre inconvénient à utiliser des grilles à une seule couche : la personne qui veut construire cette grille et l'entraîner n'aura même pas à apprendre ce qu'est BackProp et bien d'autres choses. C'est-à-dire qu'en utilisant des mailles d'architectures anciennes, la probabilité que des mailles efficaces de nouvelles architectures soient créées dans un avenir proche diminue, ce qui est très, très mauvais, car nous devons aider les mailles d'une manière ou d'une autre. =)

 

En général, en tant que personne qui utilise depuis longtemps les réseaux neuronaux sur les marchés financiers, je peux dire une chose : l'essentiel n'y est pas décrit. Bien entendu, je ne programme pas les réseaux neuronaux - je m'occupe exclusivement de leur APPLICATION, qui est un sujet distinct et très "délicat". Beaucoup de choses en dépendent. Cette application n'est pas décrite dans cet article, mais elle constitue l'un des thèmes principaux et fondamentaux de "l'application des réseaux neuronaux aux marchés financiers". Beaucoup de choses en dépendent.... ..... ...

Mais c'est mon opinion personnelle.....

 
LeoV:

En général, en tant que personne qui utilise depuis longtemps les réseaux neuronaux sur les marchés financiers, je peux dire une chose : l'essentiel n'y est pas décrit. Bien entendu, je ne programme pas les réseaux neuronaux - je m'occupe exclusivement de leur APPLICATION, qui est un sujet distinct et très "délicat". Beaucoup de choses en dépendent. Cette application n'est pas décrite dans cet article, alors qu'il s'agit de l'un des sujets principaux et fondamentaux de "l'application des réseaux neuronaux aux marchés financiers". Beaucoup de choses en dépendent.... ..... ...


Mais c'est mon opinion personnelle.....



Oui.

En tant que personne à peine impliquée dans les réseaux neuronaux (depuis 12 ans seulement), je peux dire à une personne impliquée depuis longtemps dans les réseaux neuronaux que l'application des réseaux neuronaux à n'importe quelle tâche est inséparable de leur conception (programmation). L'essentiel réside dans deux postulats : les données initiales (qui constituent un morceau à part), et le plus important - l'algorithme d'apprentissage. Les réseaux peuvent tout faire - l'essentiel est de les former correctement.
 
juicy_emad:
PraVedNiK:
Y a-t-il une raison de passer aux multicouches ? ... En fait, tout cela a un sens sur le plan graphique : .....

Je n'aurais jamais pensé que quelqu'un remettrait en question l'utilisation de mailles multicouches pour améliorer les performances de classification. =)

Je vous recommande de lire ce que Jan LeCun écrit à ce sujet - http://yann.lecun.com/exdb/mnist/index.html. Mais le sujet y est un peu différent - la reconnaissance des symboles. Quoi qu'il en soit, les mailles monocouches ont donné les pires résultats - 8,4 %. Cependant ! L'un des modèles multicouches (bicouche, avec 300 neurones dans la couche cachée) a obtenu un très bon résultat - 1,6 % d'erreur. C'est-à-dire qu'avec l'ajout d'une seule couche, le maillage devient beaucoup plus "puissant".


Exactement, car il s'agit d'un domaine complètement différent, et donc d'une approche différente. Les contours des caractères dans les polices standard sont immuables, il est donc logique d'entraîner le réseau une fois sur un exemple, par exemple sur quelques pages, afin que le réseau neuronal reconnaisse les caractères du reste du livre avec une grande précision.

Quant aux marchés financiers, c'est un autre domaine où tout est en constante évolution et en mouvement. Et donc les multicouches complexes sont foutues ici. Une analogie exagérée dans le domaine de la reconnaissance des caractères est que si sur une page d'un livre le symbole "A" doit être interprété comme "A" et sur la suivante, le même "A" est déjà interprété comme "B".

Pour cette raison, le même modèle reconnu dans différentes sections des données historiques de l'instrument financier peut être interprété différemment dans les signaux de trading, c'est-à-dire que dans certaines sections, son identification est plus appropriée pour l'ouverture de positions longues et la fermeture de positions courtes, alors que dans d'autres sections, c'est l'inverse : ouverture de positions courtes et fermeture de positions longues.
 
Reshetov:
juicy_emad:

PraVedNiK:

Y a-t-il une raison de passer à un système multicouche ? En fait, tout est logique : ...
a du sens : ...

Je n'aurais jamais pensé que quelqu'un pourrait remettre en question
sur l'utilisation de mailles multicouches pour améliorer
caractéristiques de classification. =)



Je vous recommande de lire ce que Jan LeCun écrit à ce sujet - http://yann.lecun.com/exdb/mnist/index.html. Mais le sujet y est un peu différent - la reconnaissance des symboles.
la reconnaissance des caractères. Quoi qu'il en soit, les mailles à une seule couche étaient
les pires résultats, 8,4 %. Cependant ! L'un des multicouches (bicouche,
avec 300 neurones dans la couche cachée) a montré un très bon résultat
- 1,6 % d'erreur. C'est-à-dire que l'ajout d'une seule couche rend la grille
beaucoup plus "puissant".






Exactement, qu'il s'agit d'un sujet différent et donc d'une
une approche différente. La forme des caractères dans les polices standard est la même,
Il est donc logique d'entraîner le réseau une fois sur un seul exemple,
comme quelques pages, de sorte que le réseau neuronal peut précisément
les personnages dans le reste du livre.

Et ce réseau (pour reconnaître les symboles) est écrit pour chaque police. Ou bien toutes les machines impriment-elles de la même façon ?
Ou bien le papier est-il également blanc et de haute qualité.
Non, c'est aussi une tâche variable, si tout est comme vous l'écrivez, vous n'avez pas besoin de réseaux neuronaux, une simple comparaison suffit.
 
Sergey_Murzinov:
Reshetov:
juicy_emad:

PraVedNiK:

Y a-t-il une raison de passer à un système multicouche ? En fait, tout est logique : ...
a du sens : ...

Je n'aurais jamais pensé que quelqu'un pourrait remettre en question
sur l'utilisation de mailles multicouches pour améliorer
caractéristiques de classification. =)



Je vous recommande de lire ce que Jan LeCun écrit à ce sujet - http://yann.lecun.com/exdb/mnist/index.html. Mais le sujet y est un peu différent - la reconnaissance des symboles.
la reconnaissance des caractères. Quoi qu'il en soit, les mailles à une seule couche étaient
les pires résultats, 8,4 %. Cependant ! L'un des multicouches (bicouche,
avec 300 neurones dans la couche cachée) a montré un très bon résultat
- 1,6 % d'erreur. C'est-à-dire que l'ajout d'une seule couche rend la grille
beaucoup plus "puissant".






Exactement, c'est un sujet différent et donc un...
une approche différente. La forme des caractères dans les polices standard est la même,
Il est donc logique d'entraîner le réseau une fois sur un seul exemple,
comme quelques pages, de sorte que le réseau neuronal peut précisément
les personnages dans le reste du livre.

Et que le réseau (pour reconnaître les simovars) est écrit pour chaque police spécifique. Ou bien toutes les machines impriment-elles de la même façon ?
Ou bien le papier est-il également blanc et de haute qualité.
Non, c'est aussi une tâche variable, si tout est comme vous l'écrivez, vous n'avez pas besoin de réseaux neuronaux, une simple comparaison suffit.

1. Cela ne s'écrit pas, cela s'apprend.
2. Un livre de la même édition est imprimé de la même façon par toutes les machines. Si c'est différent, alors c'est un défaut.
3. Pour une même édition, le papier a le même format : par exemple, " format 70x100 1/16 ". Impression offset. Taille d'impression 37.4." Le papier doit également être conforme à la norme. Les polices de caractères ne sont pas très variées, afin de ne pas gâcher la vision des lecteurs.

De toute façon, les tâches de reconnaissance des formes dans les domaines où il existe des normes, par exemple la polygraphie, et dans les domaines sans normes, par exemple les marchés financiers, sont complètement différentes et les probabilités d'erreur dans les solutions sont également différentes.

Une explication encore plus simple peut être avancée : si les algorithmes de reconnaissance de formes pour les marchés financiers se trompaient avec la même fréquence que les algorithmes de reconnaissance de formes pour les textes imprimés, alors ... (pas besoin de continuer, car ce serait clair comme de l'eau de roche).