Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 588

 
Yuriy Asaulenko:

Lembro-me que tinhas cerca de 70% de previsões adequadas. Eu escrevi o post acima.

Bem, 70% correcto não é nada. Desses 70% corretos para entrar no ofício, pelo menos cerca de um terço. Isto deixa-nos com 23%. Não é nada contra 30% das previsões erradas (não sabemos de antemão se elas estão certas ou erradas). E as previsões erradas são como que nas áreas de inflexão (mudança de direção), e essas áreas são exatamente as mais adequadas para o comércio.

Nesta base, eu acredito que é inútil fazer previsões, mas antes engajar-se na classificação. Isto é, para determinar se um certo momento é adequado para fazer um acordo. Usando modelos você terá o erro de entrada 20-40% Mais números exatos que eu dei anteriormente neste tópico.


A classificação é a previsão de associação em classe, ou probabilidade de associação.

Tem o mesmo efeito que a regressão, da qual você também pode extrair a adesão.

 
SanSanych Fomenko:

Ele convenceu-me que o problema da não-estacionariedade não tem nada a ver com o MO. Como nunca lidei com a NS, não tive argumentos para refutar a sua opinião. Além disso, houve uma compreensão intuitiva de que várias árvores e outras, exceto a NS, funcionam perfeitamente bem com preditores não estacionários.

Confio no axioma de que existem algumas regularidades no comportamento dos preços, é um processo não-markoviano. E eu tento encontrá-los usando MO.

Vários modelos podem de facto separar o trigo do joio, e encontrar regularidades num fluxo de preços que consiste principalmente no ruído e na sua distorção intencional através de centros de negociação.
O problema é encontrar tais parâmetros para o treinamento do modelo (para neurônio - o número de pesos, a velocidade de aprendizagem, etc.; e para uma floresta - o número de árvores, por exemplo) que o modelo não irá apenas memorizar os exemplos iniciais, e depois de conquistar a não-estacionariedade ele encontrará alguns padrões estáveis em todo aquele barulho. Eu encontro bons parâmetros para o treinamento de modelos através de múltiplas validações cruzadas.
Como resultado, o meu modelo mostra um resultado muito pequeno mas positivo tanto no treino como nos novos dados (R2 ~0.003). Mas eu ainda não venci a propagação.

 
Dr. Trader:

Confio no axioma de que existem padrões permanentes no comportamento dos preços, é um processo não-markoviano. E eu tento encontrá-los usando MO.

Vários modelos podem separar o trigo do joio, e encontrar os padrões no fluxo de preços que consistem em grande parte de ruído e distorção intencional através de centros de negociação.
O problema é encontrar tais parâmetros para o treinamento do modelo (para neurônio - o número de pesos, a velocidade de aprendizagem, etc.; e para uma floresta - o número de árvores, por exemplo) que o modelo não irá apenas memorizar os exemplos iniciais, e depois de conquistar a não-estacionariedade ele encontrará alguns padrões estáveis em todo aquele barulho. Eu encontro bons parâmetros para o treinamento de modelos através de múltiplas validações cruzadas.
Como resultado o modelo mostra um resultado muito pequeno mas positivo tanto no treino como nos novos dados (R2 ~0.003). Mas eu ainda não venci a propagação.

Eu também não ganhei, e até agora não há luz. Mas o sistema funciona em FORTS.

SanSanych prevê uma hora à frente. Ele não se importa com esta propagação).

 

Não há problema de não-estacionariedade para problemas de classificação. É real para problemas de regressão.

Não confundir previsão e previsão. Previsões e previsões são coisas diferentes. A previsão, como resultado, é um valor numérico com um intervalo de confiança. A classificação prevê a classe à qual o exemplo pertence, a probabilidade de o exemplo pertencer à classe, ou suporte para a hipótese de que o exemplo pertence à classe.

Boa sorte.

 
Vladimir Perervenko:

Não há problema de não-estacionariedade para problemas de classificação. É real para problemas de regressão.

Não confundir previsão e previsão. Previsões e previsões são coisas diferentes. A previsão, como resultado, é um valor numérico com um intervalo de confiança. A classificação prevê a classe à qual o exemplo pertence, a probabilidade de o exemplo pertencer à classe, ou suporte para a hipótese de que o exemplo pertence à classe.

Boa sorte.


O que queres dizer? Onde posso ler sobre este disparate? :)

 
Maxim Dmitrievsky:

O que queres dizer? Onde posso ler sobre este disparate? :)

O que lhe parece absurdo?
 
Vladimir Perervenko:
O que lhe parece absurdo?

que, devido à não-estacionariedade, os padrões entre os preditores-alvo e a previsão de classe irão quebrar tal como no caso da previsão

 
Maxim Dmitrievsky:

que, devido à não-estacionariedade, os padrões entre os preditores-alvo e a previsão de classe irão quebrar tal como no caso da previsão

Pode mostrar-me um exemplo? Ou isto é uma conclusão especulativa?

Em nenhuma parte da literatura sobre classificação usando NN/DNN menciona a não-estacionariedade como um fator influenciador. As minhas inúmeras experiências dizem-me a mesma coisa.

Claro que você é livre de ter a sua própria opinião sobre o assunto.

Boa sorte.

 
Vladimir Perervenko:

Pode mostrar-me um exemplo? Ou isto é uma conclusão especulativa?

Em nenhuma parte da literatura sobre classificação usando NN/DNN menciona a não-estacionaridade como fator influenciador. As minhas inúmeras experiências dizem-me a mesma coisa.

Claro que você é livre de ter a sua própria opinião sobre o assunto.

Boa sorte.


E classificação ou regressão... que diferença faz?

 

Há um livro novo e bom sobre aprendizagem profunda. Infelizmente eu não posso fazer uma ligação aberta a ele, está no rutracker.org.

Aprendizagem profunda
Ano de publicação: 2018
Autor: Nikolenko S. I., Kadurin A. A., Arkhangelskaya E. O.
Gênero ou tema: Redes neurais
Editora: Peter
Série: Biblioteca do Programador
ISBN: 978-5-496-02536-2
Idioma: russo
Formato: PDF
Qualidade: Texto reconhecido com erros (OCR)
Índice interactivo: Nenhum
Número de páginas: 479