Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1376
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Por que estudar para menos de 10% de toda a amostra, não deveria mais amostragem levar a melhorias?
E porquê mais do que 5k? Se não se pode treinar com eles, não se pode treinar com mais.
Por que treinar menos de 10% de toda a amostra, não deveria aumentar a amostra para melhorar?
E que tal um sistema com excesso de formação, aonde você acha que vai levar?
E que tal um sistema requalificado, aonde você acha que isso vai levar?
Quanto maior for a amostra, mais difícil será a adaptação ao modelo, em termos de mais folhas/árvores necessárias.
Por x - número de comércio, por y - a quantidade de lucro em pips .
É de 4 ou de 5 dígitos?
É um sinal de 4, ou é um sinal de 5?
Isso não é nenhum sinal)).
O que significa, então, colocar um lucro em pips?
Isso não está muito certo. Você tem, por exemplo, trem[2000, ] e teste[500, ]. Você treina no trem com pesos de exemplo iniciais = 1.0, faça o teste[] prever o modelo treinado. Com base na qualidade de cada prefixo de teste, você lhe dá um peso. Em seguida, combine o trem e teste e forme uma nova amostra de treinamento, treine o modelo, teste-o e assim por diante até que todas as amostras de treinamento tenham os pesos obtidos desta forma. Pode aplicar-lhes um factor de redução para barras mais antigas, mas ainda não o verifiquei. Tudo isto é para a classificação, claro.
Verificado com ELM, dá bons resultados.
Boa sorte.
Não vejo bem como isso pode melhorar o desempenho do modelo em novos dados.
Por exemplo, se a classe não for definida corretamente, colocamos peso decrescente, como uma variante extrema 0. Assim, no treinamento posterior será igual a deixar cair essas linhas da amostra e em um trem tudo ficará bem com 100% de precisão, em testes, que no mesmo círculo de marcação - também tudo ficará bem. Mas com dados completamente novos não conseguiremos retrair essas linhas e já será o que o modelo é realmente capaz de fazer.
Ou vice versa, você aumentou o peso para exemplos errados?
Não vejo bem como isso pode melhorar o desempenho do modelo em novos dados.
Por exemplo, se a classe não for definida corretamente, colocamos peso decrescente, como uma variante extrema 0. Assim, no treinamento subseqüente será equivalente a deixar cair essas linhas da amostra e tudo ficará bem com 100% de precisão na bandeja, nos testes, que também marcamos circularmente - tudo ficará bem também. Mas em dados completamente novos não poderemos descartar linhas e já haverá o que o modelo é realmente capaz de fazer.
Ou em vez disso aumentou a ponderação para os exemplos errados?
Claro que a desclassificação é para "maus" exemplos. Se você subir - é um impulso clássico.
Faz uma experiência e verifica-a.
Eu não faço isso agora. Eu removo ou destaque exemplos ruidosos ao pré-processar antes do treinamento.
Boa sorte.
Porque precisas de mais de 5.000? Se não se pode aprender com ele, não se pode aprender com mais.
Isto vai para os cofres das declarações estúpidas.
Quanto maior for a amostra, mais difícil será a adaptação ao modelo, em termos de mais folhas/árvores necessárias.
Exatamente certo, quanto mais melhor (menos de 100k é ruído), mas devemos considerar que o mercado muda, e como levá-lo em conta na formação é um grande segredo.