Comment travaillez-vous avec les réseaux neuronaux ? - page 7

 
Swetten:

Permettez-moi de vous rappeler la déclaration initiale : NS et GA sont des choses complètement différentes, sans aucun rapport entre elles.

L'un ne se transforme pas en l'autre de quelque manière que ce soit.


Pourquoi pas : ORO <-> GA ;).

Bonne chance.

 

VladislavVG:

Pourquoi pas : ORO <-> GA ;).

Si vous supprimez ORO - GA fonctionnera-t-il sans lui ?

Laissez-moi vous demander... qu'est-ce que ce serait exactement GA ?

Ouais. C'est un cours difficile qu'ils te donnent.

Bonne chance. :)

 
LeoV:

Il ne s'agit pas de dynamique. La dynamique peut être n'importe quoi - tant que les modèles que le réseau a trouvés pendant la période de formation fonctionnent à l'avenir. C'est le problème .....))))

je voulais dire le dinamika tant que vous mettez la même paire dans le filet... quant aux autres régularités - je suis d'accord... mais où les faire fonctionner tout le temps ))))
 
Swetten:

Et si vous supprimez le BGC, cela signifie-t-il que l'AG fonctionnera sans lui ?

Eh bien, eh bien, eh bien. Ils vous enseignent durement là-bas.

Bonne chance avec ça. :)

Expliquez exactement ce que vous entendez par "ORO supprimé" et "GA fonctionnera sans lui" ?

Si vous voulez dire remplacer/étendre l'algorithme d'apprentissage ORO par GA, ce qui est ce que je voulais dire, alors ce sera le cas, si c'est autre chose, alors j'ai dû mal comprendre. Dans de nombreux cas, la méthode du gradient conjugué fonctionne également et est beaucoup plus efficace que le BGC. Tout dépend de la fonction qui est minimisée.

Quant à l'expression "enseigné durement", je peux dire la même chose : vous semblez être gravement sous-éduqué ;).

Bonne chance avec ça.

ZZY Pouvez-vous trouver des articles sur la modification des algorithmes d'apprentissage à l'aide de GA ? Il y en a en russe ;).

 
VladislavVG:

Expliquez exactement ce que vous entendez par "ORO supprimé" et "GA fonctionnera sans lui".

C'est vous qui devriez demander ce que c'est. Et Reshetov. Ou comment comprendre votre "Eh bien, pourquoi : GRO <-> GA" ?

Ce que je comprends personnellement : GA n'est qu'un mécanisme d'optimisation. Optimisation de tout. L'AG permet de se débarrasser de l'optimisation par force brute.

Cela n'a rien à voir avec les réseaux neuronaux. En fait, c'est le cas, mais seulement en tant que mécanisme de recherche des poids optimaux.

Par conséquent, GA n'est pas et ne sera jamais un NS.

 

VladislavVG:

Si vous voulez dire remplacer/étendre l'algorithme d'apprentissage ORO par GA, comme je l'ai dit, ce sera le cas, si c'est autre chose, j'ai dû mal comprendre. Dans de nombreux cas, la méthode du gradient conjugué fonctionne également et est beaucoup plus efficace que le BGC. Tout dépend de la fonction qui est minimisée.

Et concernant "sévèrement instruit", je peux répondre par la même chose : il semble que vous soyez sévèrement sous-éduqué ;).

Je me creuse la tête pour essayer de comprendre ta première phrase.

À en juger par les options que vous avez énumérées, elle pourrait être structurée comme suit : "Si vous voulez dire remplacer l'algorithme d'apprentissage ORO par l'utilisation de GA, ce dont je parlais - alors il y en aura".

Will quoi ? Travailler à la place de la NS ?

 
Swetten:

C'est vous qui devriez demander ce que c'est. Ou comment comprendre votre "Eh bien, pourquoi : ORO <-> GA" ?

Ce que je comprends personnellement : GA n'est qu'un mécanisme d'optimisation. Optimisation de tout. L'AG permet de se débarrasser de l'optimisation par force brute.

Cela n'a rien à voir avec les réseaux neuronaux. En fait, c'est le cas, mais seulement en tant que mécanisme de recherche des poids optimaux.

Par conséquent, GA n'est pas et ne sera jamais un SN.

Qu'entendez-vous par "optimisation" ? Si c'est juste une recherche de variantes, ce n'est pas exactement la même chose. C'est MT qui te perturbe.

A propos de GA : c'est une méthode de recherche, dans le cas de la formation d'un réseau, nous recherchons un minimum de certaines fonctionnalités. Des erreurs sont souvent commises. Au cours du processus de formation du réseau, l'ORO et l'AG, ainsi que les gradients et le recuit (il existe une telle méthode - similaire à l'AG) tentent de trouver un extremum. La méthode qui sera la plus efficace dépend du critère fonctionnel et de qualité (c'est-à-dire le critère selon lequel les meilleures variantes sont sélectionnées). L'AG est la plus universelle de toutes les méthodes. Aucun d'entre eux ne garantit la découverte de l'extremum global.

Avec l'utilisation de l'AG, il est possible, par exemple, de sélectionner simultanément l'architecture du réseau, c'est-à-dire de l'inclure (architecture) dans les paramètres optimisés et de définir le critère de qualité (fonction de fitness en termes d'AG). Il existe d'autres possibilités. Et si nécessaire, vous pouvez également utiliser le BGC en même temps que GA.

Bonne chance.

 
Swetten:

Will quoi ? Travailler à la place de la NS ?

La méthode de formation ne va pas "fonctionner à la place". Après tout, l'EDC ne fonctionne pas "à la place de NS". Réponse plus détaillée ci-dessus.

Bonne chance.

 
VladislavVG:

Qu'entendez-vous par "optimisation" ? S'il s'agit simplement de passer par des options, ce n'est pas vraiment ce que c'est. C'est MT qui t'embrouille.

A propos de GA : il s'agit d'une méthode de recherche, dans le cas de l'apprentissage d'un réseau, nous recherchons un minimum de certaines fonctionnalités. Il y a souvent des erreurs. Dans le processus d'apprentissage du réseau, qu'il s'agisse de l'ORO ou de l'AG, qu'il s'agisse des gradients ou du recuit (il existe une telle méthode - similaire à l'AG), on essaie de trouver un extremum. La méthode qui sera la plus efficace dépend du critère fonctionnel et de qualité (c'est-à-dire le critère selon lequel les meilleures variantes sont sélectionnées). L'AG est la plus universelle de toutes les méthodes. Aucun d'entre eux ne garantit la découverte de l'extremum global.

Avec l'utilisation de l'AG, il est possible, par exemple, de sélectionner simultanément l'architecture du réseau, c'est-à-dire de l'inclure (architecture) dans les paramètres optimisés et de définir le critère de qualité (fonction de fitness en termes d'AG). Il existe d'autres possibilités. Et si nécessaire, vous pouvez également utiliser le BGC en même temps que GA.

Bonne chance.

Ugh ! Vous êtes complètement confus !

Vous devriez relire ce fil.

M. Reshetov affirme : "Il est tout à fait possible, puisque nous avons affaire à une boîte noire, qu'au lieu d'un réseau neuronal dans un progiciel, un algorithme génétique soit utilisé, ou peut-être une régression ou une autre méthode d'extrapolation".

https://www.mql5.com/ru/forum/108709/page4

C'est pour ça que j'essaie de trouver ce que c'était. Et le BGC l'a confondu avec le GRNN.

 

VladislavVG:

La méthode de formation ne va pas "fonctionner à la place". Après tout, l'EDC ne fonctionne pas "à la place de NS".

C'est ce que j'essayais de te dire. :)

Et quelqu'un d'autre.

C'est juste que ton message original était faux.