Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2269

 
Maxim Dmitrievsky:

Eu escrevi o meu gangue, não há nada de complicado lá. Mas não é recorrente, vou ter de refazê-lo.

Um exemplo no Torch.

aqui está outro exemplo

Quando eu tiver tempo suficiente, vou tentar descobrir.

 
Rorschach:

Vou ter tempo para tentar descobrir.

Eu fiz uma comparação de diferentes modelos generativos da biblioteca acima, através da minha libra. Acontece que o GMM funciona melhor para dados tabulares (dataframe com incrementos). Depois vêm as cópulas, a segunda mais eficiente. Modelos de redes neurais como o tabular Gan e outros funcionaram pior. Mas eu posso ter feito algo de errado. Há também esta opção.

 
Maxim Dmitrievsky:

Eu fiz uma comparação de diferentes modelos generativos da biblioteca acima, através da minha libra. Acontece que o GMM funciona melhor para dados tabulares (dataframe com incrementos). Depois vêm as cópulas, a segunda mais eficiente. Modelos de redes neurais como o tabular Gan e outros funcionaram pior. Mas eu posso ter feito algo de errado. Há também esta opção.

As redes parecem ter pouca tolerância ao ruído, talvez seja por isso que os resultados são piores.

Eu queria me misturar com os dados a cada época, mas nunca cheguei lá.

 
Rorschach:

As redes não parecem tolerar bem o ruído, o que pode ser o motivo pelo qual os resultados são piores.

Eu queria adicionar ruído aos dados em cada época, mas nunca cheguei a fazê-lo.

Parece que eles estão a fazer uma média muito difícil. A saída são amostras semelhantes, com pouca variação. Não importa como você muda o vetor latente, você obtém valores muito próximos um do outro.

 
Maxim Dmitrievsky:

É como se eles estivessem a fazer uma média muito difícil. A saída são amostras semelhantes, com pouca variação. Não importa como você muda o vetor latente, os valores estão muito próximos.

Que tal reduzir a profundidade da história?

 
Rorschach:

Que tal reduzir a profundidade da história?

Eu fiz coisas diferentes, a saída do autocodificador e do gm dá valores fortemente médios. Se o autocodificador por definição comprime, não está claro porque é que os GANs o fazem. O abandono também não ajuda, ao que parece.

 
Maxim Dmitrievsky:

A saída tanto do autoencodificador como do gm dá valores altamente médios. Se o autocodificador por definição comprime, não está claro porque é que os GANs o fazem. O abandono também não ajuda, ao que parece.

A média e a desfocagem são mais ou menos a mesma coisa, certo? Eu encontrei este artigo .

 
Rorschach:

A média e a desfocagem são mais ou menos a mesma coisa, certo? Eu encontrei este artigo .

Bem, sim, compressão de dados.

Eu percebo com números, mas os dados tabulares funcionam pior.

e é por isso que há o TabularGAN. No pacote acima.

 
Maxim Dmitrievsky:

Bem, sim, compressão de informação.

Eu entendo com números, mas os dados tabulares são piores.

Leia a diagonal, parece ser sobre uma distribuição de ruído diferente e métricas inadequadas.

É melhor verificar com os dados de teste em condições de estufa.
 
Rorschach:

Interessante tema de inversão da grelha.

Alimente o ruído para as entradas. Obtenha um espectro na saída.

https://arxiv.org/pdf/1806.08734.pdf