Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 588
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Lembro-me que tinhas cerca de 70% de previsões adequadas. Eu escrevi o post acima.
Bem, 70% correcto não é nada. Desses 70% corretos para entrar no ofício, pelo menos cerca de um terço. Isto deixa-nos com 23%. Não é nada contra 30% das previsões erradas (não sabemos de antemão se elas estão certas ou erradas). E as previsões erradas são como que nas áreas de inflexão (mudança de direção), e essas áreas são exatamente as mais adequadas para o comércio.
Nesta base, eu acredito que é inútil fazer previsões, mas antes engajar-se na classificação. Isto é, para determinar se um certo momento é adequado para fazer um acordo. Usando modelos você terá o erro de entrada 20-40% Mais números exatos que eu dei anteriormente neste tópico.
A classificação é a previsão de associação em classe, ou probabilidade de associação.
Tem o mesmo efeito que a regressão, da qual você também pode extrair a adesão.
Ele convenceu-me que o problema da não-estacionariedade não tem nada a ver com o MO. Como nunca lidei com a NS, não tive argumentos para refutar a sua opinião. Além disso, houve uma compreensão intuitiva de que várias árvores e outras, exceto a NS, funcionam perfeitamente bem com preditores não estacionários.
Confio no axioma de que existem algumas regularidades no comportamento dos preços, é um processo não-markoviano. E eu tento encontrá-los usando MO.
Vários modelos podem de facto separar o trigo do joio, e encontrar regularidades num fluxo de preços que consiste principalmente no ruído e na sua distorção intencional através de centros de negociação.
O problema é encontrar tais parâmetros para o treinamento do modelo (para neurônio - o número de pesos, a velocidade de aprendizagem, etc.; e para uma floresta - o número de árvores, por exemplo) que o modelo não irá apenas memorizar os exemplos iniciais, e depois de conquistar a não-estacionariedade ele encontrará alguns padrões estáveis em todo aquele barulho. Eu encontro bons parâmetros para o treinamento de modelos através de múltiplas validações cruzadas.
Como resultado, o meu modelo mostra um resultado muito pequeno mas positivo tanto no treino como nos novos dados (R2 ~0.003). Mas eu ainda não venci a propagação.
Confio no axioma de que existem padrões permanentes no comportamento dos preços, é um processo não-markoviano. E eu tento encontrá-los usando MO.
Vários modelos podem separar o trigo do joio, e encontrar os padrões no fluxo de preços que consistem em grande parte de ruído e distorção intencional através de centros de negociação.
O problema é encontrar tais parâmetros para o treinamento do modelo (para neurônio - o número de pesos, a velocidade de aprendizagem, etc.; e para uma floresta - o número de árvores, por exemplo) que o modelo não irá apenas memorizar os exemplos iniciais, e depois de conquistar a não-estacionariedade ele encontrará alguns padrões estáveis em todo aquele barulho. Eu encontro bons parâmetros para o treinamento de modelos através de múltiplas validações cruzadas.
Como resultado o modelo mostra um resultado muito pequeno mas positivo tanto no treino como nos novos dados (R2 ~0.003). Mas eu ainda não venci a propagação.
Eu também não ganhei, e até agora não há luz. Mas o sistema funciona em FORTS.
SanSanych prevê uma hora à frente. Ele não se importa com esta propagação).
Não há problema de não-estacionariedade para problemas de classificação. É real para problemas de regressão.
Não confundir previsão e previsão. Previsões e previsões são coisas diferentes. A previsão, como resultado, é um valor numérico com um intervalo de confiança. A classificação prevê a classe à qual o exemplo pertence, a probabilidade de o exemplo pertencer à classe, ou suporte para a hipótese de que o exemplo pertence à classe.
Boa sorte.
Não há problema de não-estacionariedade para problemas de classificação. É real para problemas de regressão.
Não confundir previsão e previsão. Previsões e previsões são coisas diferentes. A previsão, como resultado, é um valor numérico com um intervalo de confiança. A classificação prevê a classe à qual o exemplo pertence, a probabilidade de o exemplo pertencer à classe, ou suporte para a hipótese de que o exemplo pertence à classe.
Boa sorte.
O que queres dizer? Onde posso ler sobre este disparate? :)
O que queres dizer? Onde posso ler sobre este disparate? :)
O que lhe parece absurdo?
que, devido à não-estacionariedade, os padrões entre os preditores-alvo e a previsão de classe irão quebrar tal como no caso da previsão
que, devido à não-estacionariedade, os padrões entre os preditores-alvo e a previsão de classe irão quebrar tal como no caso da previsão
Pode mostrar-me um exemplo? Ou isto é uma conclusão especulativa?
Em nenhuma parte da literatura sobre classificação usando NN/DNN menciona a não-estacionariedade como um fator influenciador. As minhas inúmeras experiências dizem-me a mesma coisa.
Claro que você é livre de ter a sua própria opinião sobre o assunto.
Boa sorte.
Pode mostrar-me um exemplo? Ou isto é uma conclusão especulativa?
Em nenhuma parte da literatura sobre classificação usando NN/DNN menciona a não-estacionaridade como fator influenciador. As minhas inúmeras experiências dizem-me a mesma coisa.
Claro que você é livre de ter a sua própria opinião sobre o assunto.
Boa sorte.
E classificação ou regressão... que diferença faz?
Há um livro novo e bom sobre aprendizagem profunda. Infelizmente eu não posso fazer uma ligação aberta a ele, está no rutracker.org.
Aprendizagem profunda
Ano de publicação: 2018
Autor: Nikolenko S. I., Kadurin A. A., Arkhangelskaya E. O.
Gênero ou tema: Redes neurais
Editora: Peter
Série: Biblioteca do Programador
ISBN: 978-5-496-02536-2
Idioma: russo
Formato: PDF
Qualidade: Texto reconhecido com erros (OCR)
Índice interactivo: Nenhum
Número de páginas: 479