L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 596
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Prova la convalida incrociata (K-fold).
Come si fa ad aumentare l'impatto dei dati freschi?
Pensateci: insegnate al modello alimentando blocchi separati di dati, questo darà al modello una certa indipendenza dalla sequenza delle serie temporali e i nuovi dati saranno valutati senza "bias".
Le "serie temporali indipendenti dalla sequenza" sono garantite dall'agitazione. Senza di essa, il modello non arriva a nulla.
E la domanda è su come aumentare l'importanza dei dati più freschi quando si mescolano, in modo che il modello raccolga più velocemente le nuove tendenze del mercato.
Le "serie temporali indipendenti dalla sequenza" sono garantite dall'agitazione. Senza di essa, il modello non arriva a nulla.
E la domanda è come con la miscelazione aumentare l'importanza dei dati più freschi, in modo che il modello raccolga più velocemente le nuove tendenze del mercato.
Cioè la formazione in 2 fasi?
Addestramento su una grande quantità di dati + riaddestramento del modello risultante su dati freschi.
È possibile provare.
Ho avuto un'idea, basta aggiungere dati freschi 2 -3 volte al totale dei dati di allenamento. Anche con il rimescolamento, l'importanza aumenterà.
Mi chiedevo, se tutto viene rimescolato, come possiamo fare in modo che i dati freschi abbiano un impatto più forte sull'apprendimento?
C'è un trucco per duplicare più volte gli esempi di allenamento più recenti.
E per esempio nel pacchetto gbm si può impostare un coefficiente di importanza per ogni esempio di allenamento, ma non è un neurone, ho solo dato un esempio.
La "serie temporale indipendente dalla sequenza" è fornita dallo shuffling. Senza di essa, il modello non arriva a nulla.
La maggior parte dei modelli non ha alcuna dipendenza dalla sequenza. Nei neuroni, per esempio, viene calcolato un errore per ogni esempio di allenamento, e poi la somma di tutti gli errori influisce sui cambiamenti dei pesi. La somma non cambia quando cambia l'ordine dei sommatori.
Ma i modelli hanno spesso il parametro batch.size o qualcosa di simile che influenza la percentuale di dati di allenamento da prendere per la formazione. Se prendete una piccolissima percentuale di dati di allenamento, e disattivate la miscelazione, allora il modello prenderà lo stesso piccolo insieme di dati ogni volta, e le cose finiranno male. Non so di darch nello specifico, ma disabilitare la miscelazione non dovrebbe causare un fallimento completo, hai qualcosa di sbagliato con altri parametri.
Prova la convalida incrociata (K-fold).
Sono completamente d'accordo. Qualunque siano le forti affermazioni dell'autore del modello sulla sua protezione contro la sovralimentazione, solo k-fold mostrerà se è vero o no.
È il momento di arrotondare e fare una conclusione.
Prossimamente... "quasi finito".
Questa è la cosa più difficile che abbia mai fatto in vita mia.
Prossimamente... "Quasi finito".
Questa è la cosa più difficile che abbia mai fatto in vita mia.