"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 36
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
EMNIP, le cognitron représente quelque chose de similaire.
J'attends avec impatience la suite :)
Nous avons besoin d'informations sur
-Descente du gradient conjugué
-BFGS
Je vais maintenant essayer de présenter mon idée de construire des réseaux neuronaux pour l'analyse des modèles de prix. Ceux qui ont lu mes conférences 2 et 3 comprendront immédiatement. L'idée est de classer les modèles de prix par Achat, Vente ou Conservation. Le prix à une certaine période de temps (disons 100 barres) est filtré par une couche de neurones S1 simples. Les poids d'entrée de ces neurones décrivent les caractéristiques des impulsions des filtres. Dans l'exemple du cortex visuel, ces poids décrivaient des segments rectilignes de pente et de longueur variables dans un espace d'image bidimensionnel. Dans les cotations, nous avons également un espace à deux dimensions : le temps et le prix. Nous pouvons supposer que les poids du filtre S1 décrivent deux segments rectilignes dans l'espace temps-prix : la hausse et la baisse. L'angle de pente dépend de la longueur de chaque filtre. Ces longueurs peuvent être présélectionnées, par exemple 4, 8, 16, 32 barres. Chaque filtre est une ligne droite, normalisée de sorte que la somme de toutes les valeurs soit égale à zéro et que la somme des carrés soit égale à 1 (ou autre normalisation). Dans la couche suivante, que nous appellerons S2, des motifs plus complexes sont formés à partir de sections de la couche S1, et ainsi de suite. Le résultat de cette transformation multicouche des cotations, nous avons un code numérique qui décrit le modèle actuel, les codes des modèles qui sont similaires les uns aux autres mais étendus dans le temps et le prix de différentes manières sont les mêmes. Ces codes alimentent les entrées de la machine vectorielle de soutien (SVM) qui est entraînée à identifier les conditions d'achat, de vente ou de maintien sur des modèles historiques. Le problème ici est de déterminer la forme des filtres dans les couches S1, S2, etc. J'ai choisi des sections droites et leurs combinaisons pour plus de simplicité. D'ailleurs, dans le modèle HMAX du cortex visuel, toutes les formes de filtres spatiaux sont présélectionnées sur la base d'expériences biologiques. Nous devons trouver un algorithme pour détecter automatiquement ces filtres. De tels algorithmes ont déjà été développés pour la couche visuelle V1 (von der Malsburg, Linsker, Miller, LISSOM, Olshausen). Nous pouvons les emprunter pour notre tâche de classification des modèles de prix.
Au cours de ma carrière, j'ai étudié en détail presque toutes les méthodes de formation des réseaux à propagation directe. Je suis sûr que, parmi les méthodes de descente de gradient, la méthode Levenberg-Marcadt est la meilleure(https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm). Il trouve toujours de meilleurs minima que toutes sortes de BACKPROP et RPROP et même plus rapidement. Ce que j'ai posté sur BPNN (une sorte de RPROP) est un jeu d'enfant comparé à LM. Le BFGS prend plus de temps et le résultat n'est pas meilleur que LM.
Je suis d'accord ! Dans NeuroSolutions, par exemple, la méthode Levenberg-Marcadt converge là où les autres méthodes s'arrêtent à des minima locaux,
Cependant, LM nécessite des ressources informatiques importantes. Le temps par passage est plus long
...
Chaque filtre est une ligne droite normalisée de sorte que la somme de toutes les valeurs soit égale à zéro et que la somme des carrés soit égale à 1 (ou autre normalisation).
...
Je n'ai pas de preuve maintenant, mais mon intuition me dit que cette double condition est incohérente,
la somme est 0 et la somme des carrés est 1
seront remplies pour un nombre très restreint de choix. Si je me trompe, donnez-moi un coup de pied.
Je n'ai pas de preuve pour le moment, mais mon intuition me dit que cette double condition est contradictoire,
la somme est 0 et la somme des carrés est 1
sera exécuté pour un nombre très restreint de choix. Si je me trompe, donnez-moi un coup de pied.
Compris. Mais lié spécifiquement à NN. Il sera lié à NN.
J'ai peur que ce soit quelque chose comme "AWVREMGVTWNN" :) J'ai peur que ça ne soit pas du genre "AWVREMGVTWNN" :), l'essentiel est d'en saisir l'essentiel.
Meta Neuro Engine (MNE)
Meta EngiNeuro (MEN) (c)
cela fait de nous des ingénieurs :)