L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2450

 
Andrey Dik #:

La valeur moyenne des poids du réseau neuronal pris en modulo est-elle un indicateur de sa qualité de formation ?

Supposons deux neurones identiques formés sur les mêmes données, un neurone a une valeur de 0,87 et l'autre de 0,23, lequel est le mieux formé ?

Un équilibre devrait être plus proche de 0,5, en théorie. Si vous prenez un réseau simple comme MFP. Pour la classification binaire.
 
Andrey Dik #:

La valeur moyenne des poids du réseau neuronal pris en modulo est-elle un indicateur de sa qualité de formation ?

Supposons qu'il y ait deux neurones identiques formés sur les mêmes données, l'un est à 0,87 et l'autre à 0,23, lequel est le mieux formé ?

C'est ça qui fait chier...

Probablement celui qui devine le mieux, ça ne devrait pas être la première chose qui vient à l'esprit ? ? ???

 
Maxim Dmitrievsky #:
Un équilibre devrait être plus proche de 0,5, par idée. Si vous prenez un réseau simple comme MFP. Pour la classification binaire.

S'il vous plaît, soyez clair.

Au contraire, je pense que plus la valeur est proche de 1,0, plus le réseau neuronal est formé de manière claire. Si elle est proche de 0,0, alors il est plus "hésitant", si je peux m'exprimer ainsi par rapport au réseau neuronal.

 
mytarmailS #:

c'est une pisseuse...

C'est probablement celui qui devine le mieux, ça ne devrait pas être la première chose qui lui vient à l'esprit ? ? ???

tout le monde est intelligent à l'envers, les neurones encore plus...

 
Andrey Dik #:

La valeur moyenne des poids du réseau neuronal pris en modulo est-elle un indicateur de sa qualité de formation?

Supposons qu'il y ait deux neurones identiques formés sur les mêmes données, l'un a 0,87 et l'autre 0,23, lequel est le mieux formé ?

Non. Surtout si une certaine régression, où baes(ax+b) dans l'espace. Quel est l'intérêt de disposer de ces mesures indirectes ? Une course sur des points en dehors de l'échantillon d'entraînement et tout est clair.

 
Andrey Dik #:

clarifiez la pensée, s'il vous plaît.

Au contraire, je pense que plus la valeur est proche de 1,0, plus le réseau neuronal est formé de manière claire. Et s'il se situe autour de 0,0, alors il est en quelque sorte "hésitant", si je puis dire, par rapport au réseau neuronal.

La moitié des activations des neurones pour la 1ère classe, la moitié pour l'autre. Basé sur une telle logique primitive. Si c'est le cas, les classes sont peut-être mal équilibrées. Et les valeurs extrêmes semblent faire exploser le gradient ou le faire disparaître.
 
Andrey Dik #:

tout le monde est intelligent à l'arrière, encore plus pour les neurones...

il y en a un avant, appelé validation, et les poids n'ont rien à voir avec la capacité de prédiction, ils peuvent être n'importe quoi...

les poids sont en gros une formule, et la prédiction est le résultat du calcul d'une formule - opposer l'un à l'autre == schizophrénie

 
mytarmailS #:

il y en a un avant, il s'appelle validation, et les poids n'ont rien à voir avec la capacité de prédiction du tout, ils peuvent être n'importe quoi...

les poids sont une formule en gros et la prédiction est le résultat du calcul d'une formule - confronter l'un à l'autre == schizophrénie

Zhi, shi s'écrivent avec un i.

 
Alexei Tarabanov #:

Zhi, shi s'écrit avec un i.

Merci, le russe n'est pas ma langue, je ne l'ai pas appris...

 
mytarmailS #:

Merci, le russe n'est pas ma langue, je ne l'ai pas appris...

Tout est devant moi.