Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1537

 
Maxim Dmitrievsky:

argumentos?

Que argumentos são necessários - o parâmetro 6 é o padrão, ele segue a partir da tabela de configurações.

É estranho, porque a profundidade da árvore depende mais de ligações completas entre os preditores, por isso me surpreende, que a partir dessas duas ligações independentes, a complexidade total na região de 200 você obtenha um bom modelo, a julgar pelos gráficos.

 
Aleksey Vyazmikin:

Que argumentos são necessários - o parâmetro 6 por defeito, segue da tabela de definições.

É estranho, porque a profundidade da árvore depende mais das ligações completas entre os preditores, por isso é surpreendente que estas duas ligações independentes, com uma complexidade total de cerca de 200, constituam um bom modelo, a julgar pelos gráficos.

É por isso que estou a dizer que os dados estão fora. Floresta reciclar neles (talvez consiga fixar esta característica da floresta, categorizando as características). Agora ponha 6 - a reaprendizagem no treino corre bem, acurasi abaixo de 0,9.

6 para o meu demasiado, 2-4 é normal

A analogia com a floresta é simples, não há limite para a profundidade das árvores
 
Maxim Dmitrievsky:

é por isso que estou a dizer que os dados estão a ser tirados. A floresta é treinada novamente sobre eles (pode ser capaz de fixar esta característica da floresta, classificando as características). Agora ponha 6 - o re-treinamento no trilho vai substancial, acurasi abaixo de 0,9.

6 para o meu excesso, 2-4 normal vai

A analogia com a floresta é simples, ali a profundidade das árvores não é limitada.

Não entendo, você disse antes que tem preditores na forma de incrementos, então como quer transformá-los em preditores categóricos?

Muito não muda essencialmente da representação de árvores - eu já dissecei árvores, há muitas folhas individuais de árvores combinadas numa só folha longa essencialmente, e uma proporção muito grande dessas folhas são duplicadas ou têm valores/links intermediários sem sentido que podem ser podados. Geralmente eu vi na minha amostra que a profundidade da árvore afeta o número de árvores, e você pode obter o mesmo resultado em uma árvore de 4 rachaduras.

 
Aleksey Vyazmikin:

Eu não entendo, você disse antes que tem preditores na forma de incrementos, então como você quer transformá-los em preditores categóricos?

Muito não muda essencialmente da representação de árvores - eu já dissecei árvores, há muitas folhas individuais de árvores combinadas numa só folha longa essencialmente, e uma proporção muito grande dessas folhas são duplicadas ou têm valores/links intermediários sem sentido que podem ser podados. Geralmente eu vi na minha amostra que a profundidade da árvore afeta o número de árvores, e você pode obter o mesmo resultado em uma árvore de 4 rachaduras.

Primeira divisão em categorias, por exemplo, 20 gamas-categorias. Depois a codificação vanchot (através de atributos dummy) ou o que quer que seja, ainda não decidida. No final, cada recurso será binário ou algo parecido.

quanto mais valores diferentes para a floresta, mais sobretreinamento. À medida que a amostra de treinamento aumenta, o excesso de treinamento aumenta. Para o catbust, não tem. Assim, para a floresta, tente reduzir o número de escolhas de características contínuas, categorizando-as. Não tenho a certeza se vai ajudar, vamos ver.

Não sei se isso te vai salvar, vamos ver.

 
Maxim Dmitrievsky:

Primeiro decomponha-o em categorias, por exemplo, 20 fileiras. Então a codificação vanchot (via atributos dummy) ou outra coisa, eu ainda não decidi. No final, cada recurso será binário ou algo parecido.

Não sei, trata-se mais de acelerar o processamento de dados, não de fragmentar tais preditores, não de comparar uns aos outros numa cadeia de folhas, infelizmente não vi nenhum efeito útil. E a lógica é que não são valores comparáveis, é a vanchoring combinada em um grupo a fim de equalizar a seleção aleatória.

Maxim Dmitrievsky:
quanto mais valores diferentes para uma floresta, mais sobretreinamento. À medida que a amostra de treinamento aumenta, o excesso de treinamento cresce. O catbust não.

A dependência da amostra do treinamento também não é inequívoca - eu fiz meio ano ou estudos similares anteriores. O mais provável é que haja uma dependência dos dados, que devem ser comparáveis.

 
Maxim Dmitrievsky:

Uma abordagem simples e interessante sobre como descrever padrões para o MoD

https://www.quanttrader.com/index.php/a-simple-algorithm-to-detect-complex-chart-patterns/KahlerPhilipp2019

mega-primitivo, há formas muito mais precisas de descrever um padrão

 
mytarmailS:

mega-primitivo, há maneiras de descrever o padrão com muito mais precisão

Como por exemplo?

 
Alexander_K:
Eu junto-me aos pedidos daqueles que estão a sofrer. Peço, curvando a cabeça, por uma ligação ao Graal.
Alexander_K:

Estou disposto a pagar uma quantia razoável pelo Graal, confirmada no real (os relatórios de teste não me interessam) por pelo menos 3 meses de trabalho.

Eu acredito que o valor real do Graal = a soma do patrimônio líquido atual do trader. Ou seja, $1000 de capital próprio na conta, portanto o TS vale o mesmo valor. Se o meu uso do Graal é baseado em tecnologias de redes neurais e/ou modelos físicos e matemáticos, as estatísticas reais e a vontade de vendê-lo, por favor, não hesite em contactar-me e discutiremos o assunto.

Quem realmente ganha no mercado não vai vender a sua tecnologia por milhões de verdes, talvez por centenas de milhões... ou seja, se alguém lhes der uma "caixa preta" de software fazendo boas previsões ou sinais prontos, eles precisam de $10-30$ por mês para os dados e a qualidade de execução é ainda mais cara que os dados, é como comparar um garoto numa caixa de areia e uma empresa de mineração de ouro, o garoto quer cavar ouro com o seu furo, mas ele não pode fazer isso... Talvez uma talocha diferente? Pergunte a outras crianças do jardim de infância que têm uma pá assim? O mais provável é que alguém o tenha. As crianças são muitas vezes sonhadoras:)

 
Aleksey Vyazmikin:

Não sei, trata-se mais de acelerar o processamento de dados, não dividir tais preditores, não comparar um ao outro na mesma cadeia de folhas, não vi nenhum efeito útil, infelizmente. E a lógica é que estes não são valores comparáveis, são codificações vanchot combinadas para igualizar a selecção aleatória.

A dependência da amostra da aprendizagem também não é inequívoca - já fiz meio ano ou estudos semelhantes anteriores. O mais provável é que haja uma dependência dos dados, que devem ser comparáveis.

Aquele artigo em inglês é apenas sobre isso, sim, não comparar valores de uma variável entre si quando há muitas delas - isso só leva ao sobretreinamento

Talvez não seja o comprimento, é outra coisa, estou a dizer-te o que vejo. Eu aumento a amostragem - fica mais bonita no Trayne, pior no teste. Embora a generalização deva subir com o aumento do tamanho da bandeja, mas é o contrário na floresta.

 
Maxim Dmitrievsky:

tais como?

dtw, análise do espectro... um monte...

consegui criar um algoritmo que sabe ver os mesmos padrões independentemente da sua magnitude, por isso o algoritmo olha para um gráfico e vê o padrão em ambos os gráficos de um minuto e uma semana, olhando apenas para um gráfico, e pode fazer previsões reais, mas ainda tenho muito trabalho