Comment travaillez-vous avec les réseaux neuronaux ? - page 8

 
VladislavVG:

Qu'entendez-vous par "optimisation" ? S'il s'agit simplement de passer en revue les options, ce n'est pas vraiment ce que c'est. C'est MT qui vous perturbe.

En ce qui concerne l'AG, il s'agit d'une méthode de recherche. Dans le cas d'un réseau de formation, nous recherchons le minimum de certaines fonctions. Des erreurs sont souvent commises. Au cours du processus de formation du réseau, l'ORO et l'AG, ainsi que les gradients et le recuit (il existe une telle méthode - similaire à l'AG) tentent de trouver un extremum. La méthode qui sera la plus efficace dépend du critère fonctionnel et de qualité (c'est-à-dire le critère selon lequel les meilleures variantes sont sélectionnées). L'AG est la plus universelle de toutes les méthodes. Aucun d'entre eux ne garantit la découverte de l'extremum global.

Avec l'utilisation de l'AG, il est possible, par exemple, de sélectionner simultanément l'architecture du réseau, c'est-à-dire de l'inclure (architecture) dans les paramètres optimisés et de définir le critère de qualité (fonction de fitness en termes d'AG). Il existe d'autres possibilités. Et si nécessaire, vous pouvez également utiliser le BGC en même temps que GA.

Bonne chance.


Vous avez déjà répondu vous-même que GA n'est pas un réseau neuronal. Il pourrait aussi bien s'agir d'une méthode de gradient que d'un NS. Il y a une voiture et un chauffeur. Et il y a un tas de façons d'apprendre à un conducteur comment conduire une voiture, mais chacune de ces façons n'est pas une voiture.

C'est également ce que prétend Swetten. Je ne comprends pas vraiment ce que vous voulez dire ?

 
Farnsworth:

Vous avez vous-même répondu que GA n'est pas un réseau neuronal. La méthode du gradient pourrait aussi bien être un NS facile. Il y a une voiture et un chauffeur. Et il existe de nombreuses façons d'apprendre au conducteur à conduire une voiture, mais chacune de ces façons n'est pas une voiture.

C'est également ce que prétend Swetten. Je ne comprends pas vraiment ce que vous voulez dire ?

Je n'ai donc pas prétendu que GA est NS. J'ai montré comment NS et GA pouvaient être connectés en réponse à la phrase de Svetlana,

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

Qu'il n'y a pas de tel lien.


Bonne chance.
 
VladislavVG:

Je n'ai donc pas prétendu que GA est NS. J'ai montré comment NS et GA pouvaient être liés en réponse à la phrase de Svetlana selon laquelle cela n'existe pas.

1. Vous n'avez pas lu attentivement le fil de discussion et n'avez pas compris à quoi cette phrase faisait référence ;

2. Le plus drôle, c'est qu'ils n'ont vraiment rien à voir avec ça. Si vous ajoutez GA, c'est une chose ; si vous ajoutez ORO, c'en est une autre ; si vous ajoutez autre chose, c'en est une autre.

3. GA n'est qu'un mécanisme d'optimisation. C'est un mécanisme universel, je tiens à le préciser. Je veux dire, c'est un universel, y compris celui de l'optimisation NS.

Quant aux points 2 et 3, j'en conclus que le NS et le GA n'ont rien à voir l'un avec l'autre.

 

NS - méthode de transformation (quelle qu'elle soit : approximation, classification, filtrage, transformation logique)

GA - méthode d'optimisation.

L'un n'est pas l'autre et ne peut se substituer à l'autre. Et basta.

Dans de nombreux articles et livres sur les SN, lorsqu'ils parlent de réseaux neuronaux artificiels, ils laissent entendre qu'ils sont formés par le BGC, ce qui induit les lecteurs en erreur. En plus de cela, j'ai rencontré des déclarations selon lesquelles "de tels réseaux ne fonctionnent pas parce que...." alors que si un réseau est formé avec un autre algorithme d'optimisation, il s'agit déjà d'un réseau complètement différent attribuant des qualités complètement différentes à ces "autres" réseaux - une pisse de mouton. Un réseau est un réseau, il ne changera pas ses propriétés si nous le formons par une quelconque méthode d'optimisation. Cela peut changer la qualité de la formation, c'est tout.