Réseaux neuronaux hybrides. - page 18

 
gumgum >> :

Merci.

La question reste... Où est la vérité ?

Coin supérieur gauche (RProp). Pourquoi DE/DW=0 lorsque DE/DW(t-1)*DE/DW<0 ?

Puis-je vous demander de quel article est tirée cette page ? Donnez son titre complet.

 
rip >> :

Puis-je vous demander de quel article cette page est tirée ? Donnez son nom complet.

Ces articles sont différents, j'ai donné un lien vers RPROP dans la version de l'auteur ci-dessus.

 
rip писал(а) >>

Puis-je vous demander de quel article est tirée cette page ? Donnez son titre complet.

Dossiers :
anastasiadis.zip  1211 kb
 

Here.net 10-22-11-1

Rprop :(476 ep.)

Reverse + Momentum(n=0.01, a=0.9)(136 ep.) :

 
gumgum >> :

Here.net 10-22-11-1

Rprop :(476 ep.)

Inverse + Momentum(n=0.01, a=0.9)(136 ep.) :

RProp est inefficace :)

Qu'est-ce qui est dedans, qu'est-ce qui est dehors ?

 
rip писал(а) >>

RProp est inefficace :)

Qu'est-ce qui est dedans, qu'est-ce qui est dehors ?

Non.

10 ouvert -> 1 ouvert

 

C'est amusant d'observer les expériences collectives avec les réseaux neuronaux. Combien de fois dois-je vous le dire : un réseau neuronal est le même outil que le RSI et le Stochastique et bien d'autres, la seule différence étant qu'ils sont incroyablement complexes. Vous ne résoudrez pas vos problèmes avec des réseaux neuronaux... C'est juste une perte de temps... Tous ceux qui n'ont pas tiré de conclusions pour eux-mêmes, qu'ils ignorent cette remarque.

 
Suggérer des algorithmes d'apprentissage (non eur.)
 
Debugger >> :

C'est amusant d'observer les expériences collectives avec les réseaux neuronaux. Combien de fois dois-je vous le dire : un réseau neuronal est le même outil que le RSI et le Stochastique et bien d'autres, la seule différence étant qu'ils sont incroyablement complexes. Vous ne résoudrez pas vos problèmes avec des réseaux neuronaux... C'est juste une perte de temps... Que tous ceux qui n'ont pas fait de conclusion pour eux-mêmes ignorent cette remarque.

C 'est un cours de première année à l'université. En fait, je suis passé par là au lycée. Seul le professeur est important, c'est-à-dire essentiellement le type d'erreur dans la sortie du réseau.

 
gumgum >> :
Algorithmes d'apprentissage de la mémoire (non evr.)

Tout gradient - LMA, quasi-newtonien. Génétique...

Heuristique - toutes les variantes de RProp, "méthode de recuit", etc.