L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 301
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Ciao a tutti!!!! Finalmente è successo un miracolo e il mio articolo è stato pubblicato.
https://www.mql5.com/ru/articles/2773
Ciao a tutti!!!! Finalmente è successo un miracolo e il mio articolo è stato pubblicato.
https://www.mql5.com/ru/articles/2773
Grande!) Lo leggeremo a nostro piacimento.
Ciao a tutti!!!! Finalmente è successo un miracolo e il mio articolo è stato pubblicato.
https://www.mql5.com/ru/articles/2773
è andato all'articolo, grazie )
Si sa che la storia non si ripete. Ecco perché suggeriscono di provare la stessa cosa su dati casuali - il risultato non sarà molto diverso (e forse anche migliore che su dati storici).
Vorrei notare che tu efxsaber siete su un ramo dove la tua affermazione è stata confutata in modo altamente professionale. Guarda i materiali di Burnakov su questo thread e nei suoi blog
A parte questo, c'è una questione fondamentale che distingue fondamentalmente ME dallo schema nella nostra testa che l'AT ha formato.
L'apprendimento automatico è necessariamente composto da tre parti, che costituiscono un insieme coerente. Questi sono:
Il passo più significativo in termini di impatto sul risultato finale è il primo passo - la preparazione dei dati grezzi.
Se usate tutti e tre i passi in modo coerente e con una comprensione di ciò che state facendo, personalmente sono riuscito a ridurre l'errore di previsione per alcune delle variabili target sotto il 30%. Sono stato in grado di ridurre l'errore di previsione sotto il 40% quasi immediatamente. Se si ottiene il 50% a caso, significa che non si capisce qualcosa di molto importante in MO.
Vorrei far notare che tu efxsaber siete su un thread dove la tua affermazione è stata professionalmente confutata. Date un'occhiata al materiale di Burnakov su questo thread e nei suoi blog
A parte questo, c'è una questione fondamentale che distingue fondamentalmente ME dallo schema nella nostra testa che l'AT ha formato.
L'apprendimento automatico è necessariamente composto da tre parti, che costituiscono un insieme coerente. Questi sono:
Il passo più significativo nel suo impatto sul risultato finale è il primo passo - la preparazione dei dati grezzi.
Se usate tutti e tre i passi in modo coerente e con una comprensione di ciò che state facendo, personalmente sono riuscito a ridurre l'errore di previsione per alcune delle variabili target sotto il 30%. Sono stato in grado di ridurre l'errore di previsione sotto il 40% quasi immediatamente. Se si ottiene un 50% a caso, significa che non si capisce qualcosa di molto importante in MO.
Sono andato a tuffarmi nell'articolo, grazie)
Dal profondo del mio cuore Fratelli! La vostra opinione è molto importante per me. Dopo questo articolo ci sarà un trattato sulla variabile di ingresso e uscita, ci sarà la filosofia naturalmente, bene, e primos quando è difficile scegliere....
Se usate tutti e tre i passi in modo coerente e con una comprensione di ciò che state facendo, personalmente sono stato in grado di ridurre l'errore di previsione per alcune delle variabili target sotto il 30%. Sono stato in grado di ridurre l'errore di previsione sotto il 40% quasi immediatamente. Se si ottiene un 50% a caso, allora c'è qualcosa di molto significativo che non si capisce di MO.
Se si parla di erroreout-of-sample, con almeno 100k campioni da testare su dati correttamente preparati, allora i risultati sono molto ripidi, "più freddi delle uova solo", anche per i dati HFT, su minuti e più è fantastico, o banale overfit. Sui dati a bassa frequenza Dio non voglia il 2-3% per avere un vantaggio, lo stesso con i numerai.
È bello quando predice la direzione dei prezzi un secondo prima, con una precisione 65-70% (per RI) Conosco questi tipi, ma i loro dati non sono infantili e costano di conseguenza. Ho il 60-65% ma per i miei dati è anche molto bello, non compro quasi nulla separatamente ora, usavo plaza ma ora uso regular quick e mt per avere i miei dati forex.
Un filo interessante. Un sacco di flubber, ma anche alcuni pensieri intelligenti. Grazie.
Un filo interessante. Un sacco di flubber, ma anche alcuni pensieri intelligenti. Grazie.
))) La cosa principale è la comunicazione e il processo. Sembra che alcune persone stiano già creando bot neurali. Mi piacerebbe provare.
Se si parla di errore suout-of-sample, con almeno 100k campioni da testare su dati correttamente preparati, allora i risultati sono molto ripidi, "più ripidi delle uova", anche per dati HFT, su minuti e più è fantastico, o un banale overfit. Sui dati a bassa frequenza Dio non voglia il 2-3% per avere un vantaggio, lo stesso con i numerai.
È bello quando predice la direzione dei prezzi un secondo prima, con una precisione 65-70% (per RI) Conosco questi tipi, ma i loro dati non sono infantili e costano di conseguenza. Ho il 60-65% ma per i miei dati è molto bello, non compro quasi nulla separatamente ora, usavo plaza ma ora uso regular quick e mt per ottenere i miei dati forex.
Per me l'errore di previsione non è il problema principale. Per me il problema principale è il sovrallenamento del modello. O ho comunque una prova debole che il modello NON viene riqualificato, o il modello non è affatto necessario.
Ho scritto molte volte su questo thread (e anche su altri) sulla diagnosi del sovrallenamento e sugli strumenti per affrontare il sovrallenamento. In breve, sta pulendo i predittori di ingresso dal rumore e il modello stesso è di secondaria importanza.
Tutto il resto non mi interessa, dato che qualsiasi risultato senza considerazioni di sovrallenamento è solo così così, ora, forse domani, e dopo domani uno scarico sul depo.