L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 80
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
L'uomo consiglia di leggere "MSUA" e l'analisi spettrale in particolare Fourier
========================================================
Inoltre quali risultati ho "demagogico" hanno raggiunto, ma in realtà molto modesto, buone idee come penso molto, la mia ricerca sta andando in molte direzioni contemporaneamente e vi è una mancanza enorme di conoscenza in vari campi, perché spesso chiedere aiuto ai partecipanti del forum, ma soprattutto per aiutare e nessuno vuole, dicono che si impara da soli, e poi..... solo se io stesso ho imparato tutto allora perché faccio questa comunicazione, come senza logica, mi distraggo.
la cosa migliore che ho ottenuto da rf con i nuovi dati è il 50% al mese per 2 mesi, ma non è ancora stabile, ho provato 10 volte a caricare foto, ma niente funziona
La linea di fondo è che non dovete limitarvi a schemi come il 30% all'anno è cool, non è cool, questo quadro per la mente e la creatività
Congratulazioni. È così che si commercia per 5 anni. O mostratemi qualche dato sulle statistiche reali per 5 anni.
E per quanto riguarda i segni, non voglio fare l'analisi del divano qui, come se i tuoi segni fossero spazzatura, ci sono segni migliori, i modelli non sono importanti. Bene, mostratemi cosa avete fatto. Ho postato qui tutti i miei input e anche le loro combinazioni. Conta il loro valore informativo. Perché stai facendo ondeggiare l'aria?
Cosa significa "RF 10/5"?
Sì, stavo facendo una nota sulla foto quando stavo testando il modello con nuovi dati, non farci caso ....
è un parametro del modello 5 alberi 10 rami in un albero
Sì, stavo facendo una nota sulla foto quando stavo testando il modello con nuovi dati, non farci caso ....
questo è il parametro del modello 5 alberi 10 rami in un albero
Molto interessante!
Puoi darci qualche dettaglio?
Ecco il meglio che sono stato in grado di spremere da RF su nuovi dati è il 50% al mese per 2 mesi di fila, ma è ancora molto instabile, ho provato a caricare immagini 10 volte ma non funziona (capito)
Il punto è che non dovremmo limitarci con modelli come il 30% all'anno è cool, non è cool, è una cornice per la mente e la creatività
È tutto molto interessante!
Puoi darci qualche dettaglio?
è un back-test su dati fuori campione? Ho capito bene?
sì
Sembra un addestramento improprio del modello, troppe variazioni. I modelli di solito hanno una sorta di processo di apprendimento casuale in cui la logica di apprendimento non è definita in modo coerente. Tali momenti casuali portano al fatto che se si addestrano diversi modelli, essi daranno più o meno gli stessi risultati sui dati di allenamento, ma sul fronttest ci saranno delle differenze.
Ci sono diverse fonti del problema e le sue soluzioni:
1) ci sono ingressi di rumore che non forniscono informazioni utili, devono essere rimossi
2) cambiare i parametri di allenamento del modello. Per neuronkey ho risolto questo problema utilizzando il parametro di decadimento, i risultati sul fronttest con questo parametro sono diventati meno sparsi. Cosa fare con la foresta, non lo so.
3) Fare un comitato di modelli. Allenare molti modelli, fare il fronttest su tutti i modelli, prendere il risultato dove la maggior parte delle persone dice
4) se fai la crossvalidazione durante l'addestramento, ripetila più volte sugli stessi dati, vedi quanta variazione nei risultati, scegli modelli e predittori con piccola variazione
Questo è quello che mi viene in mente ora, ma non è il limite dei possibili problemi.
sviluppare l'idea. aggiungere altri dati. dovrebbe impiegare un paio d'anni per passare fuori dal campione. Altrimenti, ben fatto!