Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 429

 
Maxim Dmitrievsky:

Esqueci-me de pôr (c) :))
O violinista não é necessário (c).
No outro dia, cheguei a esta conclusão. Acredite na minha palavra. Erro M=0,1 (não TC).
É difícil escrever a partir de um telemóvel).
Ps ver. S. Heikin e Bishop.
 
Vladimir Perervenko:

Não, não têm. Abaixo está uma explicação (de um artigo que eu não consigo terminar :(

Introdução

Hoje ambas as abordagens são ativamente utilizadas na prática. As experiências comparativas [ ] das duas abordagens não revelam nenhuma vantagem significativa de uma sobre a outra, mas há uma coisa, no entanto. As redes neurais com pré-treinamento requerem muito menos exemplos de treinamento e recursos computacionais, obtendo resultados quase iguais. Para alguns campos, esta é uma vantagem muito importante.

Boa sorte.

Bem, isso está resolvido :) Sim, especialmente bom é a velocidade de aprendizagem (mais a qualidade dos modelos), vou experimentar mais tarde com perímetros de seus artigos, quando eu terminar de realizar minhas idéias, o tema é muito interessante e rentável às vezes, como no meu modesto modelo de ontem, por exemplo :) (o lote é pequeno já que ainda está a ser testado)

Até agora, ele se alimenta demais e não funciona em intervalos longos sem se reciclar, mas em intervalos de 2-3 meses ele treina (encaixa?) quase perfeitamente, e uma chance decente de que funcione uma semana após o treinamento, eu apenas me reciclo a cada semana. Honestamente, eu nunca tinha obtido tais curvas antes (a preços de fechamento, não de carrapatos) até que me familiarizei com MO no testador. Funciona eficientemente em quase todos os pares de moedas e índices (ainda não experimentei os de câmbio porque tenho pouco histórico de contratos e não quero me preocupar com colagem), por isso posso fazer portfólios de baixo risco.

Agora a tarefa principal é aumentar a estabilidade em amostras de teste, adicionando interrelações não lineares, que é uma tarefa não trivial, mas solvível até certo ponto (como parece).


 
Yuriy Asaulenko:
Não há necessidade de um violinista (c).
Cheguei a esta conclusão no outro dia. Acredite em mim, uma palavra razoável. Erro M=0,1 (não TC)
É difícil escrever a partir de um telemóvel).
Ps ver. S. Heikin e Bishop.

Vou lê-lo mais tarde, vou lembrar-me disso.

 
Maxim Dmitrievsky:

Bem resolvido :) Sim, especialmente agradável é a velocidade de aprendizagem (mais a qualidade dos modelos), experimentarei mais tarde os perímetros dos vossos artigos quando terminarem de implementar as suas ideias, tópico muito interessante e ocasionalmente lucrativo, como no meu modesto modelo de ontem, por exemplo :) (o lote é pequeno já que ainda está a ser testado)

Até agora, ele se alimenta demais e não funciona em intervalos longos sem se reciclar, mas em intervalos de 2-3 meses ele treina (encaixa?) quase perfeitamente, e uma chance decente de que funcione uma semana após o treinamento, eu apenas me reciclo a cada semana. Honestamente, eu nunca tinha obtido tais curvas antes (a preços de fechamento, não de carrapatos) até que me familiarizei com MO no testador. Além disso, funciona bem em quase todos os pares de moedas e índices (ainda não experimentei os de ações porque tenho pouco histórico de contratos e não quero me preocupar com colas), ou seja, posso fazer carteiras de baixo risco.

A principal tarefa no momento é aumentar a estabilidade nas amostras de teste, adicionando interrelações não lineares, é uma tarefa não trivial, mas solvível até certo ponto (como eu vejo).


A optimização encontra muitas vezes resultados muito bons... Mas não é assim tão importante.
Você parece ter executado o RNN da Reshetov no real com a TrendLinearReg - ainda funciona, ou a idéia falhou?
 
SanSanych Fomenko:

Voltei recentemente aos GARCHs com os quais já estava familiarizado. O que me surpreendeu enormemente, depois de vários anos de fascínio pela aprendizagem de máquinas, é o enorme número de publicações sobre a aplicação do GARCH a séries cronológicas financeiras, incluindo moedas.


Existe algo semelhante para redes profundas?

Eu não faço regressão. Só estou a seguir as novidades nesta área. O desenvolvimento mais recente que eu gosto é o pacote dos profetas.

Redes profundas para classificação.

Boa sorte.

 
elibrarius:
A optimização encontra frequentemente resultados muito bons... mas não é assim tão importante.
Você parece ter executado o RNNN da Reshetov com a TrendLinearReg no real - ainda funciona ou a idéia não funcionou?

Mudou os preditores, primeiro queria jogar ... depois acho que algo não, tal vaca precisa de si mesma por enquanto). O quadro do MO em Reshetov permaneceu, tudo o resto está refeito, acrescentou MLP - não gostou, demora muito tempo a contar, agora vou acrescentar rand. forrest + mais algumas ideias que estão no processo... Isto é, em geral quero um comitê ou o que um educaria o outro, algo tão original sempre quer

Mas o ângulo Reg. é bom por si só, tanto na entrada como na saída, se também nas cartas logarítmicas... isso é um bom preditor

 
Maxim Dmitrievsky:
Mudou os preditores, no início eu queria descarregá-los... depois acho que não, eu mesmo preciso de uma vaca assim por enquanto). Eu mantive a moldura MO no Reshetov, retrabalhei tudo o resto, adicionei o MLP - não gostei, demora muito tempo a calcular, agora vou adicionar Rand Forest + mais algumas ideias, que aparecem no processo...
Não há muitas entradas na rede Reshetov... 3-6, se você alimentar o mesmo número para o MLP, ele também deve contar rapidamente.
 
elibrarius:
Não há muitas entradas na rede Reshetov ... 3-6, se você alimentar o MLP com a mesma quantidade, ele também deve contar rapidamente.


Mas para o MLP há um problema com os Outputs... enquanto o do Reshetov está configurado para probabilidades baseadas no oscilador extrema, ou seja, é suficiente para deter corretamente o mercado, fazer algumas transformações e alimentá-lo como uma série estacionária.

MAIS este mLp alglibovy mLp cada vez que treinado de forma diferente no mesmo conjunto, 1 vez executado um mostrado, a segunda vez - outro, e assim no ciclo para várias iterações (5-7) vai produzir valores diferentes, como trabalhar com isso eu não sei. Foi por isso que comecei a adicionar mais inputs (até 15) e começou a aprender lentamente. Eu estava a usar softmax. Eu também experimentei conjuntos - demorou muito tempo. E no final, a partir de experiências na aprendizagem de máquinas azuis é claro que a RF dá sempre menos erros do que quase todos os modelos MO simples, o MLP, por outro lado, dá o maior erro como regra... Talvez eu não saiba como cozinhá-lo, mas parece ser pior e mais lento, o que encontrei aqui a confirmação de San Sanych.

Isto é, se selecionarmos a partir de classificadores simples, então sem ambiguidade RF, em seguida vem DNN e outros últimos nits, RNNN e LSTM. Vá do simples ao complexo :)

 
Maxim Dmitrievsky:

Mas um ângulo reg. é bom por si só como entrada e saída, se também em gráficos logarítmicos... um bom preditor

Quais são o ângulo reg. e as parcelas logarítmicas?

 
elibrarius:

O que são gráficos logarítmicos e de ângulo de regressão?

TrendLineregr mostra o ângulo de inclinação da linha de regressão para um determinado número de barras - é um bom indicador como preditor e como alvo também, um substituto para um ziguezague. Isto é, na verdade remove a componente de ruído das citações (na minha opinião).

E os gráficos do logotipo não são tomados como gráficos limpos, mas como um logaritmo de preços.

E em geral o mesmo Garch Figarach e Arima são a análise de regressão, nada mais interessante ainda foi inventado, então se as pessoas o usam, então eles também devem usá-lo de uma forma ou de outra.