Réseaux neuronaux hybrides. - page 20

 
rip >> :

MSE

Étrangement, lorsque j'ai commencé à appliquer ce même outil à forex avec MSE, cela n'a pas fonctionné. Vous devez appliquer une erreur complètement différente je pense.

 
registred >> :

Étrangement, lorsque j'ai commencé à appliquer ce même outil à forex avec MSE, cela n'a pas fonctionné. Vous devez appliquer une erreur complètement différente je pense.



OK, lequel ? Dans le cas d'un apprentissage avec un professeur, je pense que l'EMS est suffisant.

 
rip >> :

OK, lequel ? Dans le cas d'un apprentissage avec un professeur, je pense que l'EMS est suffisant.


J'y pense. Mais je sais avec certitude que MSE n'est pas bon. Du moins pour moi, pour la raison indiquée ci-dessus. Je crois que pour un réseau neuronal, l'enseignant (la règle) est l'erreur, car c'est un approximateur universel, nous devons en quelque sorte déterminer l'étendue de cette approximation, la qualité de l'approximation, en tenant compte du rendement du marché, pour amener la série à une forme plus stationnaire, pour ainsi dire. Si vous avez des idées à ce sujet, nous pouvons en discuter.

 
registred >> :


J'y pense. Mais je sais avec certitude que MSE n'est pas bon. Du moins pour moi, pour la raison mentionnée ci-dessus. Je crois que pour un réseau de neurones le professeur (règle) est une erreur, comme c'est un approximateur universel, il faut en quelque sorte déterminer le degré de cette approximation, la qualité de l'approximation, en tenant compte des rendements sur le marché, pour amener la série à une forme plus stationnaire, en quelque sorte. Si vous avez des idées à ce sujet, nous pouvons en discuter.


Si un nombre pouvait être amené à une forme stationnaire, je pense qu'il n'y aurait pas de forex en tant que tel :)

 

En bref, les gens ont déjà eu des exemples d'applications réussies des réseaux neuronaux, nous devons travailler sur ce point encore plus rapidement.

 
registred >> :

En bref, les gens ont déjà eu des exemples d'applications réussies des réseaux neuronaux, nous devons travailler sur ce point encore plus rapidement.

Pourquoi il y en a eu, il y en a. Si ma mémoire est bonne, en 2007, Better a gagné avec une NS probabiliste.

La tâche du réseau était de prédire le mouvement du parcours.

 
rip >> :

Pourquoi il y en avait, il y en a. Si ma mémoire est bonne, en 2007, Better a gagné juste avec une NS probabiliste.

La tâche du réseau était de prédire le mouvement du parcours.



Oui, je l'ai lu. Le réseau probabiliste a un gros problème, il est sensible au bruit dans les données. En termes simples, elle est peu empirique, contrairement à BackProp et aux autres méthodes itératives.

 
registred писал(а) >>

Le réseau probabiliste a un gros problème, il est sensible au bruit dans les données.

Pouvez-vous nous en dire plus ? Je pense que j'ai vu différents points de vue dans la littérature.

 

Le VNS est moins sensible au bruit dans les données, par rapport à des méthodes similaires (par exemple k-NN), mais par rapport au MLP et aux méthodes similaires, l'image est probablement inversée...

 
lea >> :

Pouvez-vous nous en dire plus ? Je pense que j'ai vu différents points de vue dans la littérature.


Et quel est le paramètre à régler à cet endroit ? Sigma ? Comment allez-vous l'ajuster ? Comment trouver la solution optimale ? Ce sont des questions qui ne sont pas tout à fait claires pour moi. Une autre chose est que pour MLP seul le type d'erreur est un paramètre essentiel, j'y insiste néanmoins. Bien sûr, le MLP se bloque dans le minimum local et il existe des méthodes pour le combattre. Dans tous les cas, la solution optimale pour les MLP peut être trouvée non pas en trouvant le minimum global pour de nombreuses tâches. Si vous avez quelque chose qui fonctionne avec PNN, c'est une très bonne chose.