L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 610
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
C'è il parametro seed = NULL all'interno della funzione darch() per default. Impostatelo su qualche stato, per esempio seed = 12345.
Questo è un piccolo valore di learnRate. Inizia con learnRate = 0.7, numEpochs = 10 per RBM e NN. Ma questi sono dati del soffitto. È necessario ottimizzare per un set di dati specifico.
Buona fortuna
E se si vuole fare un insieme, allora set.seed() è meglio rimuoverlo, giusto? In modo che le griglie siano diverse. Oppure set.seed(N mesh) - per la riproducibilità dell'intero insieme.
Sì, proprio così. Un insieme di modelli così complessi (intendo darch) non può contenere più di 3-5 pezzi. E devono essere molto diversi. Cioè devono avere diversi valori di parametri (numero di strati, neuroni, funzioni di attivazione, ecc.), o (molte altre varianti che non descriverò ora). Variante di ensemble della stessa struttura addestrata con inizializzazione diversa può essere possibile, ma è debole. Per lo meno rendere diverso il tipo di inizializzazione.
Buona fortuna
Sì, proprio così. Un insieme di modelli così complessi (intendo darch) non può contenere più di 3-5 pezzi. E devono essere molto diversi. Cioè devono avere diversi valori di parametri (numero di strati, neuroni, funzioni di attivazione, ecc.), o (molte altre varianti che non descriverò ora). Variante di ensemble della stessa struttura addestrata con inizializzazione diversa può essere possibile, ma è debole. Per lo meno rendere diverso il tipo di inizializzazione.
Buona fortuna
Se il processore di gara su un insieme di allenamenti su uno stesso dato per definire la struttura migliore, è meglio mettere i risultati in ensemble. Se vuoi usare l'opzione più semplice - maglia con intervallo di neuroni di 5 o percentuale (con questo intervallo i modelli saranno molto buoni), poi prendi 3-5 o 10 risultati migliori e fai la media di questi risultati. I modelli saranno costruiti e calcolati comunque, quindi perché dovremmo sprecare i nostri sforzi? ))
Se dobbiamo far girare la CPU attraverso molti allenamenti sugli stessi dati per determinare la struttura migliore, è meglio mettere i risultati in un ensemble. Se assumiamo l'opzione più semplice - griglia con spaziatura dei neuroni di 5 o percentuale (con tale spaziatura anche i modelli saranno ben diversi), allora prendiamo 3-5 o 10 risultati migliori e li usiamo per la media. I modelli saranno costruiti e calcolati comunque, quindi perché dovremmo sprecare i nostri sforzi? ))
Come ti trovi in generale con questi modelli? vale la pena di salire? :) la discussione è in corso ma nessuno parla dei risultati
Forse alcune panchine rispetto a perseptrone o gbm. Per il forex, naturalmente.
:) perché c'è una discussione ma nessuno annuncia i risultati.
Come ti trovi in generale con questi modelli? vale la pena di salire? :) la discussione è in corso, ma nessuno parla dei risultati
Ho, come la maggior parte delle persone, un errore sull'orlo del 50%. Ma almeno conta dieci volte più velocemente di Alglib. Se qui ci vogliono 40-100 minuti per calcolare il modello, stavo aspettando più di ventiquattro ore per la stessa struttura su Alglib, non ho aspettato e ho disabilitato il calcolo.
Ma se ora devo raccogliere i modelli nel ciclo, ci vorrà ancora molto tempo.... Devo anche programmare il tutto.
In generale, questo è un tempo lungo, dato che non si mettono limiti di tempo al MO.
Interessante - così ho scavato)
Se si considera un grafico di profitto come risultato, non ci saranno risultati. E la maggior parte delle persone, anche in questo thread, non ha bisogno di altro che del grafico dei profitti. L'unica prova è che semplicemente non capiamo gli altri.
Non è che tu sia stato coinvolto nell'entroterra.
Sul sito di prova, come sulla maggior parte, l'errore è al limite del 50%. Ma almeno conta decine di volte più velocemente di Alglib. Se qui per 40-100 minuti per calcolare il modello, il Alglib-e più di un giorno di attesa per la stessa struttura, non ha aspettato e disabilitato il calcolo.
Ma se ora devo raccogliere i modelli nel ciclo, ci vorrà ancora molto tempo.... Bisogna anche programmarlo.
Voglio dire, la scelta dei tratti è ancora il problema principale :) ma almeno è più veloce da imparare, questo è buono
cioè la scelta degli attributi è ancora il problema principale :)
e le caratteristiche e la struttura del modello risultano essere troppo
1. Di quale ottimizzazione stai parlando? Quale altopiano? Quale modello? Se state parlando di una rete neurale, sarebbe strano non addestrare (ottimizzare i parmetri) la DNN prima di utilizzarla.
2. Quali parametri del modello(?) dovrebbero essere stabili?
Non capisco i vostri pensieri.
Stavo parlando dell'ottimizzazione degli iperparametri di DNN che deve essere fatta necessariamente e non nel tester.
Di cosa stai parlando?
L'efficacia del modello comecriterio di ottimizzazione per tutto il resto.
Che tipo di plateau?
Il plateau di efficienza.
Quale modello?
Qualsiasi modello.
Se stai parlando di una rete neurale, sarebbe strano non allenare (ottimizzare i parametri) la DNN prima di usarla.
E questa è la domanda principale, che ti ho fatto una volta: come i risultati dell'addestramento (ottimizzazione dei parametri) dipendono dalla non stazionarietà dei predittori di ingresso. La tua risposta è stata: non è così. Non mi è chiaro, poiché i NS devono essere costantemente riqualificati, quindi reagiscono alla non stazionarietà, quindi i parametri del modello sono variabili casuali, quindi c'è un problema di stazionarietà dei parametri. Quindi questo è il quadro completo di tutto ciò che viene discusso in GARCH ma che per qualche motivo non viene discusso nella classificazione.