L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2450

 
Andrey Dik #:

Il valore medio dei pesi della rete neurale preso modulo è un indicatore della sua qualità di formazione?

Supponiamo che ci siano due neuroni identici addestrati sugli stessi dati, un neurone ha un valore di 0,87 e l'altro di 0,23, quale è addestrato meglio?

Uno equilibrato dovrebbe essere più vicino allo 0,5, in teoria. Se si prende una rete semplice come mlp. Per la classificazione binaria.
 
Andrey Dik #:

Il valore medio dei pesi della rete neurale preso modulo è un indicatore della sua qualità di formazione?

Supponiamo che ci siano due neuroni identici addestrati sugli stessi dati, uno è 0,87 e l'altro è 0,23, quale è meglio addestrato?

Questo è l'incazzatura...

Beh, probabilmente quello che indovina meglio, non dovrebbe essere la prima cosa che viene in mente????

 
Maxim Dmitrievsky #:
Uno equilibrato dovrebbe essere più vicino allo 0,5, per idea. Se si prende una rete semplice come mlp. Per la classificazione binaria.

Per favore, chiarisci il tuo punto di vista.

al contrario, penso che più il valore è vicino a 1,0, più la rete neurale è addestrata in modo chiaro. Se è circa 0,0, allora è più "esitante", se posso metterla così rispetto alla rete neurale.

 
mytarmailS #:

è un'incazzatura...

Beh, probabilmente quello che indovina meglio, non dovrebbe essere la prima cosa che viene in mente????

tutti sono intelligenti all'indietro, i neuroni ancora di più...

 
Andrey Dik #:

Il valore medio dei pesi della rete neurale preso modulo è un indicatore della sua qualità di formazione?

Supponiamo che ci siano due neuroni identici addestrati sugli stessi dati, uno ha 0,87 e l'altro 0,23, quale è meglio addestrato?

No. Soprattutto se qualche regressione, dove baes(ax+b) nello spazio. Che senso ha avere queste metriche indirette? Una corsa su punti fuori dal campione di allenamento e tutto è chiaro.

 
Andrey Dik #:

chiarire il pensiero, per favore.

Al contrario, penso che più il valore è vicino a 1,0, più la rete neurale è addestrata in modo chiaro. e se è intorno a 0,0, allora è un po' "esitante", se posso dire così rispetto alla rete neurale.

Metà delle attivazioni dei neuroni per la prima classe, metà per l'altra. Sulla base di una logica così primitiva. Se sono sbilanciate, forse le classi sono mal bilanciate. E i valori estremi sembrano causare l'esplosione o la dissolvenza del gradiente
 
Andrey Dik #:

tutti sono intelligenti nella parte posteriore, ancora di più per i neuroni...

c'è un fronte, chiamato validazione, e i pesi non hanno niente a che vedere con la capacità di previsione, possono essere qualsiasi cosa...

i pesi sono più o meno una formula, e la previsione è il risultato del calcolo di una formula - mettere uno contro l'altro == schizofrenia

 
mytarmailS #:

c'è un fronte, si chiama validazione, e i pesi non hanno niente a che vedere con la capacità di previsione, possono essere qualsiasi cosa...

i pesi sono una formula grossolanamente parlando e la previsione è il risultato del calcolo di una formula - confrontare uno con l'altro == schizofrenia

Zhi, shi si scrive con una i.

 
Alexei Tarabanov #:

Zhi, shi si scrive con una i.

Grazie, il russo non è la mia lingua, non l'ho imparato...

 
mytarmailS #:

Grazie, il russo non è la mia lingua, non l'ho imparato...

È tutto davanti a me.