Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Oui.
En tant que personne à peine impliquée dans les réseaux neuronaux (depuis 12 ans seulement), je peux dire à une personne impliquée depuis longtemps dans les réseaux neuronaux que l'application des réseaux neuronaux à n'importe quelle tâche est inséparable de leur conception (programmation). L'essentiel réside dans deux postulats : les données initiales (qui constituent un morceau à part), et le plus important - l'algorithme d'apprentissage. Les réseaux peuvent tout faire - l'essentiel est de les former correctement.
Je n'aurais jamais pensé que quelqu'un remettrait en question la nécessité d'utiliser des mailles multicouches pour améliorer les performances de classification. =)
Je vous recommande de lire ce que Jan LeCun écrit à ce sujet - http://yann.lecun.com/exdb/mnist/index.html. Cependant, le sujet y est un peu différent - la reconnaissance des caractères. Quoi qu'il en soit, les mailles monocouches ont donné les pires résultats - 8,4 %. Cependant ! L'un des modèles multicouches (bicouche, avec 300 neurones dans la couche cachée) a obtenu un très bon résultat - 1,6 % d'erreur. C'est-à-dire qu'avec l'ajout d'une seule couche, le maillage devient beaucoup plus "puissant".
Exactement, parce que c'est un sujet différent, et donc une approche différente. Les contours des caractères dans les polices standard sont immuables, il est donc logique d'entraîner le réseau une fois sur un exemple, par exemple sur quelques pages, afin que le réseau neuronal reconnaisse les caractères du reste du livre avec une grande précision.
Quant aux marchés financiers, c'est un autre domaine où tout est en constante évolution et en mouvement. Et donc les multicouches complexes sont foutues ici. Une analogie exagérée dans le domaine de la reconnaissance des caractères est que si sur une page d'un livre le symbole "A" doit être interprété comme "A" et sur la suivante, le même "A" est déjà interprété comme "B".
Pour cette raison, le même modèle reconnu dans différentes sections des données historiques de l'instrument financier peut être interprété différemment dans les signaux de trading, c'est-à-dire que dans certaines sections, son identification est plus appropriée pour l'ouverture de positions longues et la fermeture de positions courtes, alors que dans d'autres sections, c'est l'inverse : ouverture de positions courtes et fermeture de positions longues.
Le travail que j'ai lié ci-dessus a utilisé la base de données MNIST. Cette base de données contient des images manuscrites, non manuscrites ou imprimées de caractères.
Bien sûr, je comprends que tout est en dynamique constante sur les marchés financiers, mais les modèles contradictoires (l'entrée est la même et la sortie est deux classes différentes) peuvent être éliminés en augmentant la quantité d'informations à l'entrée de la grille ou (comme quelqu'un l'a suggéré plus haut) ces modèles peuvent être exclus de l'échantillon d'entraînement. Bien sûr, dans la variante suggérée par vous dans l'article, à savoir l'utilisation d'un perceptron à une couche, il y avait beaucoup de modèles contradictoires. Car, il n'y avait que 4 entrées.
Ce que je veux dire, c'est que les perceptrons à couche unique ne sont pas capables de résoudre le problème XOR (voir le livre de Minsky), ce qui les rend défectueux.
Il est plus facile d'obtenir un résultat d'apprentissage que de s'assurer que la bonne méthode d'apprentissage est utilisée.
pour résoudre le problème. Si l'on considère que la fluctuation des prix est un phénomène pseudo-stochastique...
séries temporelles, c'est la question de l'application et de l'interprétation
...
Le travail commence avec l'interprétation de la ou des sorties du réseau. C'est-à-dire que l'énoncé du problème disparaît. Je suis donc tout à fait d'accord avec vous.
Je voudrais soulever la question de savoir ce que vous utilisez exactement pour créer un échantillon de formation. C'est la chose la plus importante.
L'échantillonnage d'apprentissage est créé par des indicateurs conventionnels
Et quel type est le plus intime, ainsi que la préparation des données
Pourquoi ? Parce que personne ne demande un algorithme. Juste pour partager leurs pensées.
Je me demande alors de quoi nous parlons ici, si personne ne veut parler de la chose la plus importante.
Dans ce cas, c'est comme une course aux armements, personne ne croit personne :)
L'ensemble initial de données de formation peut également être {H,L,O,C} ... Ce qui compte, c'est le modèle, l'idée qui sous-tend le réseau et le système dans son ensemble.
Si l'idée est correcte, le but est formulé correctement et la fonction f d'estimation d'erreur est choisie correctement, le résultat est un certain coup du filet au local
minimum après N époques d'apprentissage. L'art consiste ensuite à sortir le réseau de l'impasse avec un minimum de pertes et à poursuivre l'apprentissage.
Et là, tous les moyens sont bons, le prétraitement des données, le remplacement des architectes, l'apprentissage d'algorithmes - l'essentiel est d'atteindre globalement le modèle que vous développez.
Quant à ce qu'il faut nourrir, je recommande de mettre en œuvre une idée d'un des réseaux de Reshetov, il y en a plusieurs sur ce forum, et ensuite d'évaluer.
Le modèle, le résultat - eh bien, tout est entre vos mains.