Rete neurale - pagina 4

 
joo писал(а) >> l'unica soluzione giusta sarebbe "l'apprendimento senza insegnante".

Assolutamente. Perché non esiste un insegnante perfetto per la rete. O meglio, non possiamo sapere quale potrebbe essere l'insegnante perfetto per la rete.....))))

 
LeoV >> :

Assolutamente. Perché non esiste un insegnante perfetto per la rete. O meglio, non possiamo sapere quale potrebbe essere l'insegnante perfetto per la rete.....))))

Esattamente! Con un insegnante, è possibile solo insegnare una griglia su una funzione che già conosciamo, come un'onda sinusoidale. Qui possiamo, senza esitazione, alimentare la rete per

del punto addestrato come insegnante. Questo trucco non funzionerà con il mercato.

 
joo писал(а) >> Esattamente! Si può allenare la griglia con un insegnante solo su una funzione che già conosciamo, per esempio un'onda sinusoidale. Qui possiamo, in buona coscienza, alimentare la rete il prossimo al punto addestrato come un insegnante. Questo non funzionerà con il mercato.

Sì, e in questo caso, più basso è l'errore sul campione di allenamento, meglio è per la rete. Questo non funzionerà con il mercato.

 

Non è consigliabile costruire una rete strettamente sull'allenamento con un insegnante, è più facile descrivere tutti i modelli manualmente nel codice, ci saranno meno errori.

Il vero scopo della rete neurale è insegnare senza un insegnante, insegnare ciò che l'insegnante non sa,

Sarete in grado di identificare schemi che voi personalmente non vedete (e che nessun altro vede, il che è un vantaggio).

Da bionda ad amico: sai cosa significa "non lo so".

Fidanzata: "Non lo so".

Blonde: Beh, nessuno lo sa.

 
LeoV >> :
gpwr wrote(a) >> È scritto ovunque che la rete deve essere addestrata fino a quando l'errore sul campione in esame non smette di diminuire.

In realtà è molto più complicato di così. Quando lo si addestra fino al minimo errore sul campione in esame, è probabile che si ottenga una rete sovra-addestrata......

Non è probabile, lo è. La verità. E ridurre la potenza di rete per una migliore generalizzazione non aiuta. L'errore minimo nel test è un fallimento nell'avanzamento.
 
muallch писал(а) >>
Non è probabile, ma è così. La verità. E ridurre la potenza di rete per una migliore generalizzazione non aiuta. L'errore minimo nel test è un fallimento nell'avanzamento.

D'accordo. Ho applicato la frase "molto probabilmente" nel senso di un inequivocabile sovrallenamento .....)))) E la riduzione della potenza di rete a volte aiuta anche se......

 
muallch >> :
Non è probabile, è vero. >> Verità. E ridurre la potenza della rete per una migliore generalizzazione non aiuta. L'errore minimo nel test è un fallimento nell'avanzamento.

Voi cittadini vi state rendendo conto di qualcosa. O hai inventato qualcosa di nuovo, o non ci capiamo.

Tutti i libri di testo dicono che l'addestramento di una rete con un insegnante è fatto dividendo i dati in un campione di allenamento e un campione di test. La rete viene addestrata minimizzando l'errore sul campione di addestramento, mentre c'è un errore sul campione di prova (test o verifica fuori campione). L'apprendimento si ferma quando l'errore sul campione di prova smette di diminuire (mostrato con una linea tratteggiata sotto). E l'errore sul campione di allenamento può continuare a diminuire come mostrato in questa figura


Lei sostiene che l'addestramento della rete deve essere fermato anche prima della linea tratteggiata nell'immagine. Dove esattamente? Allora perché addestrare la rete? Secondo la tua logica, scegli qualsiasi valore di pesi e vai avanti e usa la rete per il trading. A quel punto avrete una vampata sicura.

 
LeoV >> :

D'accordo. Ho applicato la frase "molto probabilmente" nel senso di un inequivocabile sovrallenamento .....)))) E la riduzione della potenza di rete a volte aiuta anche se......

Esattamente. Questo è il punto, a volte. I grails sulle MAs a volte danno un profitto anche su una posizione a termine. Non c'è (almeno io non ho annaspato) una chiara dipendenza di sistema dei risultati previsionali dalla potenza (gonfiezza, neuronicità, ecc.) di una griglia allenata. Non sto dicendo che il tipo di griglia non influenza nulla - è solo uno dei criteri. Ma la dimensione del profitto al di fuori del campione di test ha una chiara dipendenza (non lineare) dal grado di apprendimento - numerosi esperimenti con test "end-to-end" lo confermano.

 
gpwr >> :

Voi sostenete che l'addestramento della rete deve essere fermato anche prima della linea tratteggiata nell'immagine. Dove esattamente? Allora perché addestrare la rete? Secondo la tua logica, scegli qualsiasi valore di pesi e vai avanti e usa la rete per il trading. È allora che avrete lo scarico giusto.

No, non lo so.


Ed è difficile discutere su questo...

 
gpwr >> :

Voi cittadini vi state rendendo conto di qualcosa. O avete inventato qualcosa di nuovo, o non ci capiamo.

È scritto in tutti i libri di testo che l'addestramento di una rete con un insegnante avviene dividendo i dati in un campione di addestramento e un campione di test. La rete impara minimizzando l'errore sul campione di allenamento mentre osserva l'errore sul campione di prova (test o verifica fuori campione). L'apprendimento si ferma quando l'errore sul campione di prova smette di diminuire (mostrato con una linea tratteggiata sotto). Allo stesso modo l'errore sul campione di allenamento può continuare a diminuire come mostrato in questa immagine

Prima c'è l'out-of-sample - per regolare la griglia. E poi non ce n'è - il vero futuro è davanti a noi, bisogna prevederlo. Qual è il criterio per fermare l'addestramento - un certo errore o il numero di corse di addestramento? O qualcos'altro?