L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2219

 
Maxim Dmitrievsky:

Avete provato qualche clustering diverso da GMM?

 
mytarmailS:

Avete provato qualche clustering diverso da GMM?

Non hai bisogno di clustering, ma di una stima della densità. Encoder e GAN andranno bene.

Ci sono tecniche speciali per lavorare con le distribuzioni a coda in MO, ma non le ho ancora padroneggiate.

Per esempio, c'è un trucco del genere. Per una distribuzione a coda (mentre gli incrementi formano esattamente tali distribuzioni), la dimensione del campione per la formazione deve essere quasi infinita perché qualcosa funzioni sui nuovi dati. E questo è stato dimostrato. Cosa ne pensate?

 
Maxim Dmitrievsky:

Non è il clustering che è necessario, ma la stima della densità. Encoder e GAN andranno bene.

Ci sono tecniche speciali per lavorare con le distribuzioni con la coda in MO, ma non ci sono ancora arrivato. Questa è letteralmente la cosa più nuova là fuori.

Non riesco proprio a capirlo.

Ho addestrato il modello su due cluster.

> gm <- ClusterR::GMM(X,gaussian_comps = 2)
> gm
$centroids
            [,1]       [,2]       [,3]
[1,] -0.24224591 -0.5103346  0.7653689
[2,]  0.07675401  0.1668665 -0.2967750

$covariance_matrices
         [,1]      [,2]      [,3]
[1,] 1.169446 0.5971381 0.5771400
[2,] 1.006148 0.7724611 0.8297428

$weights
[1] 0.2505878 0.7494122

$Log_likelihood
            [,1]      [,2]
 [1,]  -4.060188 -3.111429
 [2,]  -6.105358 -3.516479
 [3,]  -4.301979 -4.310115
 [4,]  -3.752352 -3.583401
 [5,]  -3.172447 -3.302278
 [6,]  -7.849530 -5.254127
 [7,]  -3.055816 -3.157801
 [8,]  -5.307695 -2.795444
 [9,] -11.721658 -6.764240
[10,] -10.575876 -5.565554
[11,]  -6.760511 -5.193087
[12,]  -3.978182 -5.066543
[13,]  -2.577926 -4.418768
[14,]  -4.398716 -3.614050
[15,]  -4.082245 -5.268694
[16,]  -2.918141 -2.901401
[17,]  -9.153176 -4.797331
[18,]  -5.678321 -3.599856
[19,]  -4.500670 -2.622113
[20,]  -2.965878 -4.415078
[21,]  -4.453389 -4.152286
[22,]  -5.365306 -4.368355
[23,]  -8.533327 -3.813763
[24,]  -4.142515 -2.811048
[25,]  -7.174136 -5.631351
[26,]  -5.063518 -3.491408
[27,]  -4.935992 -8.336194
[28,]  -4.210241 -5.869093
[29,]  -3.605818 -2.577456
[30,]  -3.670845 -5.686447
[31,]  -2.733389 -5.010803
[32,]  -3.730563 -2.646749
[33,]  -3.201767 -3.689452
[34,]  -4.879268 -3.111545

che è la distribuzione.

$centroids

o

$covariance_matrices

e come simularli (allevarne di simili)

 
Maxim Dmitrievsky:

Ed è provato. Cosa ne pensate?

La bomba.

Dove l'hai letto?

 
mytarmailS:

La bomba.

Dove l'hai letto?

Ho visto alcuni articoli.

Guarda un po'.

https://venturebeat.com/2020/08/14/how-to-improve-ai-economics-by-taming-the-long-tail-of-data/

How to improve AI economics by taming the long tail of data
How to improve AI economics by taming the long tail of data
  • 2020.08.14
  • Matt Bornstein, Andreessen Horowitz
  • venturebeat.com
As the CTO of one late-stage data startup put it, AI development often feels “closer to molecule discovery in pharma” than software engineering. This is because AI development is a process of experimenting, much like chemistry or physics. The job of an AI developer is to fit a statistical model to a dataset, test how well the model performs on...
 
mytarmailS:

Non riesco proprio a capirlo.

Ho addestrato il modello su due cluster.

Qual è la distribuzione

o

e come simularli (allevarne di simili)

cercate un pacchetto che vi permetta di campionare da un modello addestrato

 
Maxim Dmitrievsky:

cercate un pacchetto che vi permetta di campionare da un modello addestrato

Ci sono tre distribuzioni (linee).

Normal Mixture' object   ``#9 Trimodal'' 
       mu sigma    w
[1,] -1.2  0.60 0.45
[2,]  1.2  0.60 0.45
[3,]  0.0  0.25 0.10

Dovrebbe essere così?

 
mytarmailS:

Ci sono tre distribuzioni (linee)

Dovrebbe essere così?

Questi sono i parametri gaussiani

 
Maxim Dmitrievsky:

Non è il clustering che è necessario, ma la stima della densità. Encoder e GAN andranno bene.

Ci sono tecniche speciali per lavorare con le distribuzioni con la coda in MO, ma non ci sono ancora arrivato.

Per esempio, c'è un trucco del genere. Per una distribuzione a coda (mentre gli incrementi formano esattamente tali distribuzioni), la dimensione del campione per la formazione deve essere quasi infinita perché qualcosa funzioni sui nuovi dati. E questo è stato dimostrato. Cosa ne pensate?

Beh, sono proprio gli incrementi a coda che hanno dimostrato la somiglianza della serie di prezzi con la SB.)))) E come conclusione, perché funzioni, dobbiamo guardare tutta la serie, cioè anche la serie futura, o se accettiamo che la serie sia infinita, allora la serie futura sarà riconosciuta. Come se la conclusione fosse che ci sono un numero infinito di variazioni su una serie infinita e noi ci alleneremo su di esse e le vedremo.

È inutile per la pratica, ma deve essere compreso.

ZS e in termini di densità si può suddividere in sezioni dopo la valutazione.
 
Valeriy Yastremskiy:

Beh, stava solo dimostrando la somiglianza della serie di prezzi con la SB.)))) con incrementi a coda. E come conclusione, ciò che funzionerebbe è vedere tutta la serie, cioè anche la serie futura, o se accettiamo che la serie sia infinita, allora la serie futura sarà riconosciuta. Come se la conclusione fosse che ci sono un numero infinito di variazioni su una serie infinita e noi ci alleneremo su di esse e le vedremo.

È inutile per la pratica, ma è necessario per capire.

SZY e in termini di densità dopo la valutazione si può dividere in sezioni.

dividerli in sezioni e scegliere gli esempi più frequenti, il resto dovrebbe essere scartato come rumore

o viceversa, tracciare dei limiti su eventi rari

Come potete vedere dall'articolo - questo è un problema del mondo reale, non solo del Forex. E i MO stanno lottando con esso in diverse aree