Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2219

 
Maxim Dmitrievsky:

Você já tentou algum outro agrupamento além do GMM?

 
mytarmailS:

Você já tentou algum outro agrupamento além do GMM?

Não é preciso agrupamento, é preciso estimar a densidade. O codificador e o GAN servem.

Existem técnicas especiais para trabalhar com distribuições de cauda em MO, mas ainda não as dominei bem.

Por exemplo, existe tal truque. Para uma distribuição com cauda (enquanto os incrementos formam exatamente essas distribuições), o tamanho da amostra para treinamento deve ser quase infinito para que algo funcione com os novos dados. E isto foi provado. O que você acha?

 
Maxim Dmitrievsky:

Não é o agrupamento que é necessário, mas sim a estimativa da densidade. O codificador e o GAN servem.

Existem técnicas especiais para trabalhar com distribuições de cauda em MO, mas ainda não cheguei a elas. Isto é literalmente a coisa mais nova que há por aí.

Eu não consigo perceber.

Eu treinei o modelo em dois grupos.

> gm <- ClusterR::GMM(X,gaussian_comps = 2)
> gm
$centroids
            [,1]       [,2]       [,3]
[1,] -0.24224591 -0.5103346  0.7653689
[2,]  0.07675401  0.1668665 -0.2967750

$covariance_matrices
         [,1]      [,2]      [,3]
[1,] 1.169446 0.5971381 0.5771400
[2,] 1.006148 0.7724611 0.8297428

$weights
[1] 0.2505878 0.7494122

$Log_likelihood
            [,1]      [,2]
 [1,]  -4.060188 -3.111429
 [2,]  -6.105358 -3.516479
 [3,]  -4.301979 -4.310115
 [4,]  -3.752352 -3.583401
 [5,]  -3.172447 -3.302278
 [6,]  -7.849530 -5.254127
 [7,]  -3.055816 -3.157801
 [8,]  -5.307695 -2.795444
 [9,] -11.721658 -6.764240
[10,] -10.575876 -5.565554
[11,]  -6.760511 -5.193087
[12,]  -3.978182 -5.066543
[13,]  -2.577926 -4.418768
[14,]  -4.398716 -3.614050
[15,]  -4.082245 -5.268694
[16,]  -2.918141 -2.901401
[17,]  -9.153176 -4.797331
[18,]  -5.678321 -3.599856
[19,]  -4.500670 -2.622113
[20,]  -2.965878 -4.415078
[21,]  -4.453389 -4.152286
[22,]  -5.365306 -4.368355
[23,]  -8.533327 -3.813763
[24,]  -4.142515 -2.811048
[25,]  -7.174136 -5.631351
[26,]  -5.063518 -3.491408
[27,]  -4.935992 -8.336194
[28,]  -4.210241 -5.869093
[29,]  -3.605818 -2.577456
[30,]  -3.670845 -5.686447
[31,]  -2.733389 -5.010803
[32,]  -3.730563 -2.646749
[33,]  -3.201767 -3.689452
[34,]  -4.879268 -3.111545

que é a distribuição.

$centroids

ou

$covariance_matrices

e como simulá-los (reproduzir semelhantes)

 
Maxim Dmitrievsky:

E está provado. O que você acha?

A bomba.

Onde é que o leste?

 
mytarmailS:

A bomba.

Onde é que o leste?

Eu vi alguns artigos.

Vê isto.

https://venturebeat.com/2020/08/14/how-to-improve-ai-economics-by-taming-the-long-tail-of-data/

How to improve AI economics by taming the long tail of data
How to improve AI economics by taming the long tail of data
  • 2020.08.14
  • Matt Bornstein, Andreessen Horowitz
  • venturebeat.com
As the CTO of one late-stage data startup put it, AI development often feels “closer to molecule discovery in pharma” than software engineering. This is because AI development is a process of experimenting, much like chemistry or physics. The job of an AI developer is to fit a statistical model to a dataset, test how well the model performs on...
 
mytarmailS:

Eu não consigo perceber.

Eu treinei o modelo em dois grupos.

Qual é a distribuição

ou

e como simulá-los (reproduzir semelhantes)

Procure um pacote que lhe permita amostrar a partir de um modelo treinado

 
Maxim Dmitrievsky:

Procure um pacote que lhe permita amostrar a partir de um modelo treinado

Existem três distribuições (linhas).

Normal Mixture' object   ``#9 Trimodal'' 
       mu sigma    w
[1,] -1.2  0.60 0.45
[2,]  1.2  0.60 0.45
[3,]  0.0  0.25 0.10

É suposto ter este aspecto?

 
mytarmailS:

Existem três distribuições (linhas)

É suposto ter este aspecto?

Estes são os parâmetros gaussianos

 
Maxim Dmitrievsky:

Não é o agrupamento que é necessário, mas sim a estimativa da densidade. O codificador e o GAN servem.

Existem técnicas especiais para trabalhar com distribuições de cauda em MO, mas ainda não cheguei a elas.

Por exemplo, existe tal truque. Para uma distribuição com cauda (enquanto os incrementos formam exatamente essas distribuições), o tamanho da amostra para treinamento deve ser quase infinito para que algo funcione com os novos dados. E isto foi provado. O que você acha?

Bem, são apenas os incrementos de cauda que provaram a semelhança das séries de preços com a SB.)))) E como conclusão, para que funcione, precisamos de olhar para toda a série, ou seja, também para a série futura, ou se aceitarmos que a série é infinita, então a série futura será reconhecida. Como se a conclusão fosse que há um número infinito de variações sobre uma série infinita e nós vamos treiná-las e vê-las.

É inútil para a prática, mas deve ser entendido.

ZS e em termos de densidade você pode dividir-se em seções após a avaliação.
 
Valeriy Yastremskiy:

Bem, estava apenas provando a semelhança da série de preços com a SB.)))) por incrementos de cauda. E como conclusão, o que funcionaria é ver toda a série, ou seja, também a série futura, ou se aceitarmos que a série é infinita, então a série futura será reconhecida. Como se a conclusão fosse que há um número infinito de variações sobre uma série infinita e nós vamos treiná-las e vê-las.

É inútil para a prática, mas é necessário compreender.

SZY e em termos de densidade após a avaliação você pode dividi-la em seções.

dividi-los em secções e escolher os exemplos mais frequentes, o resto deve ser descartado como ruído

ou vice-versa, traçar limites em eventos raros

Como você pode ver no artigo - este é um problema do mundo real, não apenas do Forex. E as OP estão a debater-se com ele em diferentes áreas.