L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 301

 

Ciao a tutti!!!! Finalmente è successo un miracolo e il mio articolo è stato pubblicato.

https://www.mql5.com/ru/articles/2773

Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
  • 2017.03.29
  • Mihail Marchukajtes
  • www.mql5.com
В этой статье я расскажу, как с помощью "скрещивания" одной очень известной стратегии и нейронной сети можно успешно заниматься трейдингом. Речь пойдет о стратегии Томаса Демарка "Секвента" с применением системы искусственного интеллекта. Работать будем ТОЛЬКО по первой части стратегии, используя сигналы "Установка" и "Пересечение".
 
Mihail Marchukajtes:

Ciao a tutti!!!! Finalmente è successo un miracolo e il mio articolo è stato pubblicato.

https://www.mql5.com/ru/articles/2773


Grande!) Lo leggeremo a nostro piacimento.
 
Mihail Marchukajtes:

Ciao a tutti!!!! Finalmente è successo un miracolo e il mio articolo è stato pubblicato.

https://www.mql5.com/ru/articles/2773


è andato all'articolo, grazie )
 
Andrey Dik:
Si sa che la storia non si ripete. Ecco perché suggeriscono di provare la stessa cosa su dati casuali - il risultato non sarà molto diverso (e forse anche migliore che su dati storici).


Vorrei notare che tu efxsaber siete su un ramo dove la tua affermazione è stata confutata in modo altamente professionale. Guarda i materiali di Burnakov su questo thread e nei suoi blog


A parte questo, c'è una questione fondamentale che distingue fondamentalmente ME dallo schema nella nostra testa che l'AT ha formato.

L'apprendimento automatico è necessariamente composto da tre parti, che costituiscono un insieme coerente. Questi sono:

  • Preparazione di dati grezzi (datamining) - non presente nell'AT
  • ricerca automatica di modelli. Ci sono molti algoritmi. In AT questo viene fatto di solito manualmente a "occhio di diamante".
  • valutazione del risultato della simulazione. Nel terminale MT, questo ruolo è svolto dal tester, che può sostituire solo marginalmente gli strumenti che esistono nel quadro con MO.

Il passo più significativo in termini di impatto sul risultato finale è il primo passo - la preparazione dei dati grezzi.

Se usate tutti e tre i passi in modo coerente e con una comprensione di ciò che state facendo, personalmente sono riuscito a ridurre l'errore di previsione per alcune delle variabili target sotto il 30%. Sono stato in grado di ridurre l'errore di previsione sotto il 40% quasi immediatamente. Se si ottiene il 50% a caso, significa che non si capisce qualcosa di molto importante in MO.

 
SanSanych Fomenko:


Vorrei far notare che tu efxsaber siete su un thread dove la tua affermazione è stata professionalmente confutata. Date un'occhiata al materiale di Burnakov su questo thread e nei suoi blog


A parte questo, c'è una questione fondamentale che distingue fondamentalmente ME dallo schema nella nostra testa che l'AT ha formato.

L'apprendimento automatico è necessariamente composto da tre parti, che costituiscono un insieme coerente. Questi sono:

  • Preparazione di dati grezzi (datamining) - non presente nell'AT
  • ricerca automatica di modelli. Ci sono molti algoritmi. In AT questo viene fatto di solito manualmente a "occhio di diamante".
  • valutazione del risultato della simulazione. Nel terminale MT, questo ruolo è svolto da un tester, che può sostituire solo marginalmente gli strumenti che esistono nel quadro con MO.

Il passo più significativo nel suo impatto sul risultato finale è il primo passo - la preparazione dei dati grezzi.

Se usate tutti e tre i passi in modo coerente e con una comprensione di ciò che state facendo, personalmente sono riuscito a ridurre l'errore di previsione per alcune delle variabili target sotto il 30%. Sono stato in grado di ridurre l'errore di previsione sotto il 40% quasi immediatamente. Se si ottiene un 50% a caso, significa che non si capisce qualcosa di molto importante in MO.

Hai schivato magistralmente la domanda/suggerimento, complimenti! Mentre ti leggi, dimentichi cosa stavi chiedendo..... Per "alcune variabili target" ho ottenuto meno errori anche su una serie casuale, a cosa serve. I miei esperimenti con i risultati sono sul 4° forum da qualche parte (questa è una risposta a "Guarda i materiali di Burnakov").
 
Maxim Dmitrievsky:

Sono andato a tuffarmi nell'articolo, grazie)

Dal profondo del mio cuore Fratelli! La vostra opinione è molto importante per me. Dopo questo articolo ci sarà un trattato sulla variabile di ingresso e uscita, ci sarà la filosofia naturalmente, bene, e primos quando è difficile scegliere....
 
SanSanych Fomenko:


Se usate tutti e tre i passi in modo coerente e con una comprensione di ciò che state facendo, personalmente sono stato in grado di ridurre l'errore di previsione per alcune delle variabili target sotto il 30%. Sono stato in grado di ridurre l'errore di previsione sotto il 40% quasi immediatamente. Se si ottiene un 50% a caso, allora c'è qualcosa di molto significativo che non si capisce di MO.

Se si parla di erroreout-of-sample, con almeno 100k campioni da testare su dati correttamente preparati, allora i risultati sono molto ripidi, "più freddi delle uova solo", anche per i dati HFT, su minuti e più è fantastico, o banale overfit. Sui dati a bassa frequenza Dio non voglia il 2-3% per avere un vantaggio, lo stesso con i numerai.

È bello quando predice la direzione dei prezzi un secondo prima, con una precisione 65-70% (per RI) Conosco questi tipi, ma i loro dati non sono infantili e costano di conseguenza. Ho il 60-65% ma per i miei dati è anche molto bello, non compro quasi nulla separatamente ora, usavo plaza ma ora uso regular quick e mt per avere i miei dati forex.

 

Un filo interessante. Un sacco di flubber, ma anche alcuni pensieri intelligenti. Grazie.

 
Andrei:

Un filo interessante. Un sacco di flubber, ma anche alcuni pensieri intelligenti. Grazie.


))) La cosa principale è la comunicazione e il processo. Sembra che alcune persone stiano già creando bot neurali. Mi piacerebbe provare.
 
Non sono interessato:

Se si parla di errore suout-of-sample, con almeno 100k campioni da testare su dati correttamente preparati, allora i risultati sono molto ripidi, "più ripidi delle uova", anche per dati HFT, su minuti e più è fantastico, o un banale overfit. Sui dati a bassa frequenza Dio non voglia il 2-3% per avere un vantaggio, lo stesso con i numerai.

È bello quando predice la direzione dei prezzi un secondo prima, con una precisione 65-70% (per RI) Conosco questi tipi, ma i loro dati non sono infantili e costano di conseguenza. Ho il 60-65% ma per i miei dati è molto bello, non compro quasi nulla separatamente ora, usavo plaza ma ora uso regular quick e mt per ottenere i miei dati forex.


Per me l'errore di previsione non è il problema principale. Per me il problema principale è il sovrallenamento del modello. O ho comunque una prova debole che il modello NON viene riqualificato, o il modello non è affatto necessario.

Ho scritto molte volte su questo thread (e anche su altri) sulla diagnosi del sovrallenamento e sugli strumenti per affrontare il sovrallenamento. In breve, sta pulendo i predittori di ingresso dal rumore e il modello stesso è di secondaria importanza.

Tutto il resto non mi interessa, dato che qualsiasi risultato senza considerazioni di sovrallenamento è solo così così, ora, forse domani, e dopo domani uno scarico sul depo.