Les réseaux neuronaux, comment les maîtriser, par où commencer ? - page 6

 
nord >> :

>> ...mais Better a eu de très bons résultats, donc quelque chose peut être survécu s'il est utilisé correctement.

Si l'on en juge par les résultats du CHAMPI 2008, où M. Better et d'autres participants au CHAMPI ont utilisé du NS, quelles places leurs conseillers ont-ils prises ?

Comme nous l'avons vu en 2008, les leaders du championnat sont des conseillers de tout type, mais pas ceux qui ont des NS !

Cela nous amène à une autre question : M. Better n'a-t-il pas été abattu par accident en 2007 ?

 
Le NS dans le TS est un ajustement avec la redondance,
mais même la redondance des réseaux neuronaux peut ne pas être suffisante pour faire des bénéfices.
 
TheXpert писал(а) >>

Conneries.

Dans de nombreux problèmes, le Perspectron à 4 couches montre des résultats et une convergence bien meilleurs.

Et dans certains endroits, on en utilise une à 5 couches. Sa couche cachée intermédiaire capture les données intermédiaires pour une analyse supplémentaire.

D'ailleurs, à ce propos, les réseaux de recirculation déployés ne sont rien d'autre qu'un perseptron. Et un RNS non linéaire déployé est juste un perseptron à 5 couches.

Pour l'instant, je garderai le silence sur les réseaux complexes (avec plusieurs couches de sortie et des liens complexes) basés sur un perseptron.

C'est un peu compliqué.

Je sais qu'il n'y a pas si longtemps, deux théorèmes ont été prouvés. Selon la première, le NS non linéaire à trois couches (qui consiste en trois couches de neurones, avec une non-linéarité à la sortie de chacune) est un approximateur universel et l'augmentation du nombre de couches n'augmente pas la puissance du réseau. Selon le second théorème, la puissance de calcul du réseau ne dépend pas du type spécifique de non-linéarité aux sorties de ses neurones. Il est important qu'il y ait une non-linéarité en principe et peu importe ce qu'elle est exactement - sigmoïde ou arctangente. Cela nous évite d'essayer de trouver le meilleur de l'égalité.

Ces deux théorèmes simplifient radicalement pour nous le choix de l'architecture NS et réduisent sensiblement la quantité de travail de recherche possible.

En outre, nous prouvons une relation non ambiguë entre la longueur optimale de l'échantillon d'entraînement sur les données historiques, la dimensionnalité de l'entrée du NS et le nombre total de ses synapses, dans le sens de la minimisation de l'erreur de prédiction sur les données qui n'ont pas participé à l'entraînement du réseau. Cela permet de ne pas s'engager dans le léninisme en sélectionnant manuellement cet optimum. Aux capacités existantes de l'EM, il permet un gain de temps et de forces appréciable.

 
Andrey4-min >> :

Chers membres du forum, le sujet de ce fil de discussion est les réseaux neuronaux, comment les maîtriser, par où commencer ?

Rapprochons-nous du sujet....

Plus près du sujet ? Pas de problème ! Commencez par écrire un neurone, puis combinez-les en un réseau. Et les logiciels avancés sont pour plus tard. Tous les autres conseils sont nuls.

 
Korey >> :
Le NS dans le TS est un raccord avec un excès...

tout appareil matriciel en tc est un raccord,

Prenez par exemple l'ancienne méthode d'ajustement - le lissage exponentiel à deux paramètres, pas du tout pire que AI et NS.

 
PraVedNiK писал(а) >>

Lissage exponentiel à deux paramètres, PAS pire que AI et NS.

C'est vrai : le lissage exponentiel biparamétrique n'est PAS pire que le NS à double entrée.

D'autre part, dans les NS réelles, nous sommes libres de choisir la dimensionnalité de l'entrée. Pour les BP de type prix, la dimensionnalité typique se situe dans la zone de 10-100. Ici, il sera difficile de construire un muve avec un tel nombre de paramètres et il sera certainement impossible de les optimiser dans un temps raisonnable. À cette fin, NS utilise la méthode de rétropropagation des erreurs qui est beaucoup plus rapide que l'algorithme génétique dans le testeur, et a fortiori que la recherche stupide de paramètres.

 
Travailler avec le NS dans le TC me donne la chair de poule - je n'ai pas à réfléchir, il n'y a pas besoin de le faire,
c'est-à-dire que tous les soucis sont comme pour les filles : quoi facturer, quand nourrir, quoi comparer avec quoi = une sorte de sinécure,
Je me suis décidé, je l'ai testé et j'ai mis les mains dans mon pantalon (pour jouer avec des balles)), dans l'attente des résultats.
l'ordinateur fonctionne - trader rests)))) rien de personnel.
 
Non, si vous avez assez d'assiduité et de connaissances pour adapter un cadre théorique à la régularité trouvée sur le kotir, alors s'il vous plaît - exploitez-le à votre avantage ! Mais combien de temps cette tendance va-t-elle durer ? Ce ne sont pas les lois de la mécanique, qui sont éternelles. Demain, la tendance du marché changera et vous devrez prendre une feuille de papier et compter... Laissez le TS avec NS le faire. Stupide, mais solide comme le fer.
 
Neutron >> :

...

utilise la méthode de rétropropagation, qui est sensiblement plus rapide que l'algorithme génétique du testeur, et encore moins que l'énumération muette des paramètres.

La méthode de rétropropagation ne donne AUCUNE garantie pour trouver le minimum global de la fonction d'erreur, et comme pour 10-100 entrées

à l'entrée du réseau... En fait, personne n'a encore annulé la réduction de la taille du réseau ; deux entrées suffiront, si les composantes principales sont analysées au préalable, mais le problème est que cette analyse, ainsi que l'entraînement, se fait également sur l'historique.

 
Ne soyez pas si dur avec vous-même. Après tout, le réseau est parfois réentraîné (et je le fais sur chaque BP analysé) et la méthode de la moyenne trouve un minimum. Quant à la réduction de la dimensionnalité, elle ne fonctionne pas pour les BP comme les BP de prix dans la mesure que vous présentez, malheureusement.