Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 654

 
Yuriy Asaulenko:

Yuri, não te preocupes - a tua ajuda e sugestões são tidas em conta por mim e são elas que me impedem de descrever o algoritmo na sua totalidade. Estou a pensar em como lidar com isso... Eu ainda não sei. É isso. Vou deixar este fio. Não repreendas o pianista, ele toca como pode.

 
Dr. Trader:


Sim, Doc - se ainda estás a correr com redes neurais, fá-lo em amostras transformadas. Você pode ler a partir daí de forma uniforme ou exponencial. Agora é mesmo tudo. É melhor eu ir para casa - o ambiente aqui parece ter melhorado.

 

Na verdade, estão todos a falar sobre a coisa errada...

É tudo sobre os dados e depois a implementação do escape MO no TS, acho que é melhor falar sobre como transformar um predicado ruidoso com NS, com pouco mais de 50% de acuracracia, em um TS pelo menos acima da propagação.

 
pantural:

Na verdade, estão todos a falar sobre a coisa errada...

É tudo sobre os dados e depois a implementação do escape MO no TS, acho que é melhor falar sobre como transformar um predicado ruidoso com NS, com pouco mais de 50% de acuracracia, em um TS pelo menos acima da propagação.

***

 
Alexander_K2:

Como prova, neste momento:

Demonstração?
 
Por favor, não transforme este fio no mundo interior deRenat Akhtyamov.
 
Renat Akhtyamov:
demonstração?

Então, onde estava o rublo antes de 14? ))))))


 
pantural:

Na verdade, estão todos a falar sobre a coisa errada...

É tudo sobre os dados e depois a implementação do escape MO no TS, acho que é melhor falar sobre como transformar um predicado ruidoso com NS, com pouco mais de 50% de acuracracia, em um TS pelo menos acima da propagação.

Eu também tenho pensado muito nisto.

Se o modelo de regressão prevê ganhos de preço por barra, e a pontuação R2 está acima de zero nos testes frontais e nos testes de retaguarda, isso já é um bom começo. O problema é que o resultado, embora estável, é pequeno, a propagação não pode ser vencida.

Analisicamente, o problema é que o R2 penaliza mais o modelo por grandes erros e ignora pequenos erros e direcções comerciais erradas. Se você olhar para a distribuição dos ganhos, a maioria dos movimentos de preços são apenas um par de pips. E o modelo, em vez de prever a direção correta de movimentos tão pequenos, aprende a prever as longas caudas da distribuição para a qual obterá um R2 mais alto. Como resultado, o modelo pode de alguma forma prever grandes movimentos, mas nos pequenos comete sempre um erro na direção e perde a propagação.

Conclusão - as estimativas de regressão padrão são ruins para forex. É necessário inventar algum tipo de função de aptidão para ter em conta as direcções comerciais, a dispersão e a precisão, e a função deve ser suave. Então, mesmo com uma precisão um pouco superior a 50%, há uma chance de lucro.
Precisão, Sharp ratio, fator de recuperação e outras funções que analisam o gráfico de negociação são muito discretas, a neurônica com retropropulsores padrão não sairá do mínimo local e não aprenderá corretamente.

Uma conclusão alternativa é ignorar completamente os sinais fracos do neurónio. Troca apenas com os mais fortes. O problema é que podemos sempre definir o limiar que dá bons resultados no backtest, mas não dará bons resultados no fronttest. Isso também é algo em que se deve pensar.

 
Dr. Trader:
Uma conclusão alternativa é ignorar completamente os sinais fracos da neurónica. Troca apenas com os mais fortes. O problema é que você pode sempre encontrar um limite que dará bons resultados no backtest, mas não dará bons resultados no fronttest. Aqui, também, devíamos pensar em algo.

É lógico negociar com os mais fortes. E o facto de termos obtido maus resultados no frontend - talvez NS apenas se tenha lembrado do que tínhamos no backtest, e não generalizou.
Talvez uma trama de validação deva ser introduzida?
Mas pode vir a acontecer que a secção de validação seja adequada. E o atacante vai voltar a ser mau.

 
Dr. Trader:

e direcções de transacção erradas.

Pode ser de interesse: rugarch::DACTest - teste de precisão direcional. O mais interessante é que o autor é o nosso Anatolyev contemporâneo russo.

Anatolyev S. Teste de previsibilidade. Quantil #1, Setembro de 2006, pp. 39-43.