Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2637
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Suponha que tenhamos encontrado padrões que ocorrem periodicamente e acompanham um determinado movimento de preços, uma vez que eles ocorrem.
Alguém fez alguma pesquisa sobre a relação entre a freqüência de ocorrência de um padrão e o evento subseqüente?
Estamos falando de clusters de probabilidade, se é que existe tal termo.
Suponhamos que podemos esperar que, se um padrão não aparece há muito tempo, haverá um movimento de preços previsível (concomitante) após a sua ocorrência, e então haverá um desvanecimento, pois o padrão se tornou visível para todos e assim eliminou as ineficiências do mercado.
Penso que o desenvolvimento de métricas para avaliar estes estados transitórios ao longo do tempo (de mais provável a igualmente provável ou mesmo previsão negativa) pode ajudar a encontrar e selecionar tais padrões, e um modelo que possa explicar isto pode se mostrar bastante eficaz.
Estou trabalhando nesta direção, mas me faltam aparelhos matemáticos e conhecimentos teóricos.
Posso trabalhar somente com padrões muito simples, como movimento após uma quebra de vértice. No sentido de que deve haver o suficiente deles para que a freqüência sirva como uma boa estimativa de probabilidade.
A partir de minhas observações, quando as marcas de padrões são totalmente formalizadas, as ineficiências de mercado (no sentido de serem diferentes da SB) tornam-se de pouca importância. Convencionalmente falando, dentro da propagação. Há um desejo natural de tornar o desenho do padrão mais complexo, mas isso geralmente leva a uma amostra de tamanho reduzido e a resultados instáveis.
Pense em características como incrementos, mas mais informativas. Por exemplo, encontre o preço médio para todo o histórico e subtraia o resto dele. Você precisa de variação máxima, mas tem que estar dentro de um intervalo que seja conhecido com os novos dados.
Lembra-me a teoria da propagação comercial. E há ali algumas matemáticas bastante complicadas, a julgar pela pletora de artigos engendrados sobre o assunto.
Mas será algo como um z-score, quando só há estacionaridade na história? Embora, é claro, as tentativas de estacionar a estacionariedade não podem ser evitadas em princípio - sem ela, não se pode fazer muito negócio.
Lembra-me a teoria da propagação comercial. E há ali algumas matemáticas bastante complicadas, a julgar pela pletora de artigos engendrados sobre o assunto.
Mas seria algo como z-score quando há apenas estacionariedade na história, não seria? Embora, é claro, tentar alcançar a estacionaridade seja, em princípio, impossível - não se pode realmente negociar sem ela.
Você só pode trabalhar com padrões muito simples, como o movimento após uma tampa ter sido quebrada. No sentido de que deve haver o suficiente deles para que a freqüência sirva como uma boa estimativa de probabilidade.
Quantos são suficientes? Suponha que eu tenha de 5% a cerca de 15% na amostra selecionando "padrões" simples, e a amostra para treinamento, digamos 15k exemplos, isso é muito pouco?
Minha observação é que quando a marcação padrão é totalmente formalizada, as ineficiências do mercado (no sentido das diferenças em relação à SB) tornam-se de pouca importância. Convencionalmente falando, dentro da propagação. Há um desejo natural de tornar o desenho do padrão mais complexo, mas isso geralmente leva a uma amostra de tamanho reduzido e a resultados instáveis.
A questão é como formalizar melhor estas observações para obter resultados rapidamente e descartar/classificar padrões com ou sem qualquer regularidade.
Quanto é o suficiente? Suponha que eu tenha de 5% a cerca de 15% na amostra selecionada "padrões" simples, e a amostra para treinamento, digamos 15k exemplos, isto é muito pouco?
É melhor contar em pedaços de padrões. O mesmo padrão de quebras (significativas para o trabalho) não pode ocorrer mais do que algumas centenas por ano. Eu lhe chamaria um número limite. Se você tentar fazer padrões mais complicados - por exemplo, um par de nós quebrando, que também preenchem algumas condições, então podem ser dezenas por ano. E isso não é suficiente.
A questão é como formalizar melhor estas observações para obter resultados rapidamente e descartar/classificar padrões com e sem um padrão.
Algo como um loop sobre todas as construções possíveis de um padrão de um determinado tipo? Fez algo semelhante uma vez com as mesmas quebras de vértice. Em princípio, é possível pensar em algo, mas a busca não será (no caso geral) iterativa, mas recursiva. Mais uma vez, a maioria dos padrões não faria sentido devido à complexidade e raridade. É provavelmente mais fácil coletar manualmente uma lista de padrões significativos e contorná-la em um loop regular, escolhendo o ideal.
Por quê?
Dados reais pouco significativos.
Zy. gerar dados com um ambiente aleatório dá a impressão de alongar os dados. Isto é um erro. Tantos dados quanto os que existem. 211 barras significa 211 e não mais.
Hi!
A verdade está lá fora... (Fox Mulder "Os Ficheiros X")
Você está obviamente perto do alvo. Você precisa empurrar com mais força.