L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2749

 
elibrarius #:

Anche gliarticoli di Vladimir hanno un errore intorno al 10-20%, ma la linea di bilancio non è incoraggiante.

questo può dipendere anche dall'interpretazione "a-post" della formazione....

 
Maxim Dmitrievsky #:

aggiunto nel post precedente

#299

qualcuno ha cancellato i miei post in cui ho postato il video... non so come possa accadere.

 
mytarmailS #:

Qualcuno ha cancellato i miei post in cui ho pubblicato il video... non so come possa accadere.

Bene, bene, bene, ti stai mettendo in mostra molto, credo.

Eccone uno sulla modellazione del legno.

#4469

#4467

Per quanto riguarda la ricerca di catbusters? 😄 che ha iniziato il thread

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
  • 2017.07.12
  • www.mql5.com
Самое интересное что я не понимаю почему он открывает сделки туда или обратно. экспериментирую с предикторами и разными способами открытия поз. тем более что оно копирует механизм работы настоящих нейронов очень примитивно и не так как на самом деле это происходит в мозгу Единственное из НС что нормально работает и перспективно это сверточные нс для распознавания всяких образов
 
Maxim Dmitrievsky #:

Bene, bene, bene, devi metterti in mostra molto spesso.

ecco la modellazione del legno

#4469

#4467

Riguardo alla ricerca di catbusters? 😄 che ha iniziato il thread

Guarda che il legno non è affatto un argomento da trattare.... Il 95% dei tutorial del MdC inizia con il legno, è la prima cosa che un principiante impara a conoscere, non sei tu che te ne occupi.

 
mytarmailS #:

Guarda, il legno non è affatto un argomento... Il 95% dei tutorial della MdC inizia con il legno, è quello che un principiante impara per primo, non è colpa tua.

In passato qui c'erano soprattutto NS, mi sono chiesto perché non gli alberi. Ho fatto dei test e ho scoperto che non sono peggiori. Non ho mai visto queste informazioni qui, altrimenti non avrei fatto questa domanda.

Poi sono passato a bousting, ho trovato la lib di katbust e ho iniziato a replicarlo qui

 
Maxim Dmitrievsky #:

In precedenza erano stati discussi soprattutto i NS, e mi sono chiesto perché non gli alberi. Ho fatto dei test ed è risultato che non sono peggiori. Non ho mai visto queste informazioni qui, altrimenti non avrei posto questa domanda.

e gli alberi, tra l'altro, possono essere una valida alternativa al clustering e al fs - "2 in uno".

Maxim Dmitrievsky #:

Poi sono passato a bousting, ho trovato la lib di katbust e ho iniziato a replicarlo qui

per quanto riguarda l'algoritmo: matematicamente fornisce un'altra seconda derivata (o la media dei residui - statisticamente) -- MA in che modo aiuta personalmente nell'addestramento e in quali casi?... a parte i luoghi comuni standard nelle pubblicità "catboost darà risultati migliori e più accurati".... perché la precisione dei punti non è sempre importante, a volte la capacità generativa del modello può essere più importante.
 
JeeyCi #:

e gli alberi, tra l'altro, possono essere una valida alternativa a clustering e fs.

sull'algoritmo: matematicamente fornisce un'altra seconda derivata (o la media dei residui - statisticamente) -- MA in che modo aiuta nell'addestramento e in quali casi?... a parte i luoghi comuni standard nelle pubblicità "catboost darà risultati migliori e più accurati".... perché non sempre la precisione dei punti è importante, a volte la capacità generativa del modello può essere più importante?

Esistono anche modelli in legno per l'inferenza causale, ma non ho ancora avuto il tempo di scoprirli.

Il bousting riduce il bias e la varianza, mentre Forest solo la varianza, credo. Si tratta di vantaggi comprovati, si può cercare su Google. E la libreria stessa è stata sviluppata, è conveniente lavorarci.

Non è del tutto chiaro per quanto riguarda i generativi, forse a volte sono più importanti. Ma i generativi NS non funzionano bene nel Forex, se parliamo di generare dati sintetici.

Forest Based Estimators — econml 0.13.1 documentation
  • econml.azurewebsites.net
Orthogonal Random Forests are a combination of causal forests and double machine learning that allow for controlling for a high-dimensional set of confounders , while at the same time estimating non-parametrically the heterogeneous treatment effect , on a lower dimensional set of variables . Moreover, the estimates are asymptotically normal and...
 
Maxim Dmitrievsky #:

se si tratta di generare dati sintetici.

no - si tratta di generalizzare... sì, sbagliato, esprimerlo.... Mi dispiace.

Penso che si tratti di distinguere l'ambiente risk-on/risk-off -- sto ancora pensando a come generalizzare questa divisione... tutto secondo i miei pensieri (sul forum per caso)...

grazie per la risposta!

 
JeeyCi #:

no - si tratta di generalizzare..... sì, sbagliato, espresso.... Mi dispiace

Penso che si tratti di distinguere l'ambiente risk-on/risk-off -- sto ancora pensando a come generalizzare questa divisione... tutto secondo il mio pensiero (sul forum per caso)...

grazie per la risposta!

provalo, catbusta ha un sacco di funzioni diverse, mi piace.

C'è un arresto anticipato basato sull'errore del campione di validazione, prima dell'addestramento. La generalizzazione non è peggiore di quella di NS, che inoltre deve scrivere le proprie funzioni per interrompere l'apprendimento.

E apprende rapidamente, senza dover aspettare ore.

 
una foresta casuale può trovare il massimo in una stringa di dati, cioè simulare la funzione mach()?

Mi sto solo chiedendo se il MO può simulare funzioni primitive del JA

c'è una matrice, ogni riga della matrice è un esempio di addestramento.

head(X)
     [,1] [,2] [,3] [,4] [,5]
[1,]    2    4    1    3    1
[2,]    3    1    4    5    3
[3,]    1    2    4    4    1
[4,]    1    1    5    3    5
[5,]    3    4    1    3    3
[6,]    4    4    5    1    2

Dobbiamo trovare il massimo di ogni riga, la dimensione del campione è di 20k righe.


risolvere il problema attraverso la regressione

 pred actual
1  4.967619      5
2  4.996474      5
3  4.127626      4
4  4.887233      5
5  5.000000      5
6  4.881568      5
7  4.028334      4
8  4.992406      5
9  3.974674      4
10 4.899804      5
11 4.992406      5

arrotondato per chiarezza

 pred actual
1     5      5
2     5      5
3     4      4
4     5      5
5     5      5
6     5      5
7     4      4
8     5      5
9     4      4
10    5      5
11    5      5

abbastanza bene, solo pochi errori nel test su 50 nuove righe


Ma i dati della matrice X sono molto semplici, solo 5 valori unici da 1 a 5 e solo 5 colonne, ma ci sono già degli errori.

Anche se penso che se facessimo una classificazione, non ci sarebbero errori, in ogni caso potete verificarlo.

Beh, sì, è così, ma se stiamo cercando il massimo nei dati allora la classificazione non è adatta perché la dispersione dei valori può essere enorme....

Torniamo quindi alla regressione e complichiamo i dati.

head(X)
      [,1]  [,2]  [,3]  [,4]  [,5]
[1,]  0.93 -2.37 -0.35  0.16 -0.11
[2,] -0.53  0.19 -0.42  1.35 -0.16
[3,]  1.81  0.19 -0.68  0.31 -0.05
[4,]  0.08 -1.43  0.15 -0.96  0.43
[5,]  0.40  1.36  1.17 -0.99 -0.18
[6,] -2.19 -0.65  0.42 -1.12  1.46

otteniamo questo risultato.

  pred actual
1   1.75   1.78
2   1.33   1.31
3   1.67   1.69
4   1.15   1.16
5   0.51   0.41
6   1.00   0.99
7   0.80   0.78
8   1.75   1.76
9   0.35   0.36
10  1.78   1.79
11  2.02   2.13
12  1.26   1.21
13  1.60   1.57
14  0.19   0.06

In linea di principio non è male, ma la solita funzione mach() lo farà meglio e potrà sostituire tutto questo modello....

A proposito, mi chiedo come funzioneranno gli altri modelli, se saranno in grado di creare la funzione mach() senza alcun errore