Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2269
![MQL5 - Linguagem para estratégias de negociação inseridas no terminal do cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Eu escrevi o meu gangue, não há nada de complicado lá. Mas não é recorrente, vou ter de refazê-lo.
Um exemplo no Torch.
aqui está outro exemploQuando eu tiver tempo suficiente, vou tentar descobrir.
Vou ter tempo para tentar descobrir.
Eu fiz uma comparação de diferentes modelos generativos da biblioteca acima, através da minha libra. Acontece que o GMM funciona melhor para dados tabulares (dataframe com incrementos). Depois vêm as cópulas, a segunda mais eficiente. Modelos de redes neurais como o tabular Gan e outros funcionaram pior. Mas eu posso ter feito algo de errado. Há também esta opção.
Eu fiz uma comparação de diferentes modelos generativos da biblioteca acima, através da minha libra. Acontece que o GMM funciona melhor para dados tabulares (dataframe com incrementos). Depois vêm as cópulas, a segunda mais eficiente. Modelos de redes neurais como o tabular Gan e outros funcionaram pior. Mas eu posso ter feito algo de errado. Há também esta opção.
As redes parecem ter pouca tolerância ao ruído, talvez seja por isso que os resultados são piores.
Eu queria me misturar com os dados a cada época, mas nunca cheguei lá.
As redes não parecem tolerar bem o ruído, o que pode ser o motivo pelo qual os resultados são piores.
Eu queria adicionar ruído aos dados em cada época, mas nunca cheguei a fazê-lo.
Parece que eles estão a fazer uma média muito difícil. A saída são amostras semelhantes, com pouca variação. Não importa como você muda o vetor latente, você obtém valores muito próximos um do outro.
É como se eles estivessem a fazer uma média muito difícil. A saída são amostras semelhantes, com pouca variação. Não importa como você muda o vetor latente, os valores estão muito próximos.
Que tal reduzir a profundidade da história?
Que tal reduzir a profundidade da história?
Eu fiz coisas diferentes, a saída do autocodificador e do gm dá valores fortemente médios. Se o autocodificador por definição comprime, não está claro porque é que os GANs o fazem. O abandono também não ajuda, ao que parece.
A saída tanto do autoencodificador como do gm dá valores altamente médios. Se o autocodificador por definição comprime, não está claro porque é que os GANs o fazem. O abandono também não ajuda, ao que parece.
A média e a desfocagem são mais ou menos a mesma coisa, certo? Eu encontrei este artigo .
A média e a desfocagem são mais ou menos a mesma coisa, certo? Eu encontrei este artigo .
Bem, sim, compressão de dados.
Eu percebo com números, mas os dados tabulares funcionam pior.
e é por isso que há o TabularGAN. No pacote acima.
Bem, sim, compressão de informação.
Eu entendo com números, mas os dados tabulares são piores.Leia a diagonal, parece ser sobre uma distribuição de ruído diferente e métricas inadequadas.
É melhor verificar com os dados de teste em condições de estufa.Interessante tema de inversão da grelha.
Alimente o ruído para as entradas. Obtenha um espectro na saída.
https://arxiv.org/pdf/1806.08734.pdf