L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 595
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Quando si entra in un edificio chiamato "Statistica", sopra l'ingresso c'è scritto"Garbage in, rubbish out".
Qualsiasi indicatore è una funzione del prezzo. Le reti neurali hanno una non indulgenza. È in grado di derivare da solo qualsiasi formula di indicatore se la rete è abbastanza profonda. Se la rete non può imparare sui dati di prezzo, non è a causa degli input, ma a causa dell'impossibilità di ricevere dati di output sul prezzo.
Qualsiasi indicatore è una funzione del prezzo. Le reti neurali non hanno clemenza. È in grado di derivare da solo qualsiasi formula di indicatore se la rete è abbastanza profonda. Se la rete non può imparare dai dati di prezzo, allora non si tratta di input ma del fatto che non si possono ottenere dati di output dal prezzo in linea di principio.
Sia tu che SanSanych avete ragione.
Da un lato, la NS costruirà automaticamente l'indicatore necessario e la loro totalità. D'altra parte, se i dati sono grezzi e c'è troppo rumore, nessun NS sarà in grado di imparare qualcosa. Quindi, si tratta anche degli input.
Quanto è importante mescolare il campione quando si allena il NS? Quali sono le giustificazioni matematiche per questo?
La miscelazione è rilevante per tutti i modelli MOE o solo per alcuni specifici?
Quanto è importante mescolare il campione quando si allena il NS? Quali sono le giustificazioni matematiche per questo?
La miscelazione è rilevante per tutti i modelli MoD o solo per alcuni specifici?
È necessario mescolare e abbinare in modo che l'algoritmo di apprendimento non segua lo stesso percorso ad ogni ciclo. Possiamo colpire e non riuscire ad uscire dall'estremum locale.
Cioè devi mescolare e allenare un po' di volte e vedere come i risultati sono correlati?
Cioè mischiare un po' di volte, allenarsi un po' di volte e vedere come i risultati sono correlati?
Mescolare dopo ogni poche epoche di allenamento. Sfortunatamente, molti algoritmi di apprendimento non permettono pause (vedi Python - alcuni pacchetti (moduli)) e partono da zero ogni volta.
L'agitazione è anche buona da combinare con la ricottura. Ma, di nuovo, è difficile farlo sulla macchina. Bisogna sempre guardare i risultati intermedi e poi pianificare i passi successivi.
Un rimescolamento è necessario dopo ogni poche epoche di apprendimento. Sfortunatamente, molti algoritmi di apprendimento non permettono pause (vedi Python - alcuni pacchetti (moduli)) e partono da zero ogni volta.
L'agitazione è anche buona da combinare con la ricottura. Ma, di nuovo, è difficile farlo sulla macchina. Bisogna sempre guardare i risultati intermedi e poi pianificare i passi successivi.
wow... è così... cioè mescolarlo prima dell'allenamento non ha senso
E ora ce l'hai) Rattlesnake è CatBoost.
---------
Se hai voglia di catturare un bosone...
https://www.kaggle.com/c/higgs-boson
Darch ha come impostazione predefinita la miscelazione prima di ogni epoca. Ho provato a spegnerlo - non ha imparato assolutamente nulla.
Quindi mi chiedevo, se tutto è mischiato, come posso fare in modo che i dati freschi abbiano un effetto più forte sull'apprendimento?
Darch ha come impostazione predefinita la miscelazione prima di ogni epoca. Ho provato a spegnerlo - non ha imparato assolutamente nulla.
Quindi mi chiedevo, se tutto è mischiato, come posso fare in modo che i dati freschi abbiano un effetto più forte sull'apprendimento?