L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 626

 
Maxim Dmitrievsky:

Perché, no, ci sono troppi alberi... andava bene anche con 10 (non ricordo quanti ne ho impostati)

500 è molto, abbastanza per qualsiasi set di dati

Perché c'erano questi errori con i numeri frazionari? ... strano, mi aspettavo che una macchina imparasse esattamente... Quindi, nel caso di modelli (nel forex) il loro aspetto è tutt'altro che chiaro (come la tabella di moltiplicazione), è buono, se si ottengono previsioni vere nel 60% dei casi.
 
Anatolii Zainchkovskii:
Perché tali errori si sono verificati con i numeri frazionari? ... strano, mi aspettavo che la macchina può imparare esattamente... Quindi, nel caso di modelli (nel forex) la loro forma è tutt'altro che chiara (come la tabella di moltiplicazione) è bene se si ottengono previsioni corrette nel 60% dei casi.

Gli errori si sono verificati perché il parametro r era basso, il che significa che solo metà degli esempi sono stati utilizzati per l'addestramento, e questa metà è stata addestrata su metà degli alberi :) e ci sono pochi esempi

dovete impostare r~1 per essere esatti. Utilizzato per la pseudoregolarizzazione e per test su campioni fuori sacco

è solo che questo meccanismo deve essere regolato, nel caso della foresta, ci sono solo 2 impostazioni

Dovreste anche capire che NS (RF) non è una calcolatrice, ma approssima una funzione, e una precisione troppo alta è più cattiva che buona per molti compiti.

 
elibrario:

Temo che la regressione/previsione in rete produrrà più o meno la stessa cosa che cercare siti/modelli simili nella storia (cosa che ho fatto 3 mesi fa):

e la classificazione non è migliore :) il principio è lo stesso, è solo che si scompone in classi
 
Maxim Dmitrievsky:

Gli errori si sono verificati perché il parametro r era basso, il che significa che solo metà degli esempi sono stati utilizzati per l'addestramento, e questa metà è stata addestrata su metà degli alberi :) e ci sono pochi esempi

dovete impostare r~1 per essere esatti. Utilizzato per la pseudoregolarizzazione e per test su campioni fuori sacco

Bisogna solo sapere come sintonizzare questo meccanismo, nel caso della foresta, ci sono solo 2 impostazioni

Se impostate r a 1, allora imparerà su tutti gli esempi. questo è fondamentalmente ciò che è necessario, altrimenti perché raccogliere esempi e mostrarli?
 
Anatoly Zainchkovskii:
Cioè se impostate r a 1, allora sarà addestrato su tutti i campioni.

La foresta non userà comunque tutti gli attributi, quindi c'è una modifica del modello in cui si può impostare l'uso di tutti gli attributi. Ma questo non è raccomandato perché la foresta ricorderà tutte le opzioni

e la selezione delle impostazioni è spesso una cosa così soggettiva che bisogna sperimentare

se meno di 1, allora sui campioni rimanenti il modello è convalidato (il modello è stimato sui dati che non sono stati presi dal campione di allenamento). r classico è 0,67, sul restante 33% il modello è convalidato. Naturalmente, questo è vero per i campioni grandi, per quelli piccoli è proprio come con la tabella di moltiplicazione - è meglio impostare 1.

 
Maxim Dmitrievsky:

La foresta non userà comunque tutti gli attributi, quindi c'è una modifica del modello in cui si può impostare l'uso di tutti gli attributi. Ma questo non è raccomandato perché la foresta ricorderà tutte le opzioni

e la selezione delle impostazioni è spesso una cosa così soggettiva che bisogna sperimentare

Se è inferiore a 1, allora sui campioni rimanenti il modello è convalidato (il modello è stimato sui dati che non sono stati presi nel campione di formazione). Secondo il classico r è impostato a 0,67, sul restante 33% il modello è convalidato

Grazie per i consigli, li aggiungerò)
 
Ho trovato per caso un vecchio sviluppo di API Python-MT4. Sembra che qualcuno abbia lavorato su questo argomento di recente. Controlla, forse ti aiuterà https://github.com/zonquan/PyMT4
 

Selezione delle caratteristiche

Un po' di datamining. Stavo facendo la selezione delle caratteristiche tramite Chi^2 + KBest, RFE (eliminazione ricorsiva delle caratteristiche) + (SGDClassifier, RidgeClassifier), L2 (Ridge, RidgeClassifier), L1 (Lasso). La regolarizzazione della cresta dà risultati più sani.
Alcuni grafici:
rfe

RFE + Ridge & SGD

cresta l2

Regressore di cresta (L2).

cresta l2 cl

Classificatore di cresta (L2)

Il file contiene una tabella dei valori dei parametri e il loro campionamento in base alla selezione delle caratteristiche.

I coefficienti più significativi sono risultati essere:

  • 10, 11 - Chiudere, Delta (aprire-chiudere)
  • 18-20 - Derivato Alto, Basso, Chiusura
  • 24 - Chiudere il derivato del registro
  • 29, 30 - Lowess
  • 33 - Vicino a Detranding - Lowess
  • 35 - EMA 26 (13 come opzione)
  • 40 - Derivato EMA 13
PS. La linea Ridge Classifier nella tabella è basata su una classe, non riflette le dipendenze dei parametri da altre classi.
Riferimento allo script.
File:
 

ha abbozzato un nuovo diagramma di rete, questa è la prima descrizione. Ci sarà più tardi (si spera)

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Идеальная нейронная сеть для финансовых рынков
Идеальная нейронная сеть для финансовых рынков
  • 2018.01.29
  • rationatrix.blogspot.com.cy
В данной статье, обсудим начало экспериментов с созданием нейронной сети, которая оптимальным образом подходила бы для работы на валютном рынке. Основной недостаток классических НС заключается в их статической/статистической природе, когда модель обучается на исторических данных и, впоследствии, рыночные закономерности меняются, а нейросеть...
 
Maxim Dmitrievsky:

ha abbozzato un nuovo diagramma di rete, questa è la prima descrizione. Ci sarà più tardi (si spera)

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Mi chiedo perché il primo post sia stato cancellato. Ha bloggato lo schema. =)