Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3142
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
alguns gráficos de D.O.C., pode ser?
Não para um novo professor.
Estou tentando resolver o problema de engrossamento dos valores do preditor. Parece-me que pode ocorrer um erro de classificação se o valor do preditor for ligeiramente diferente do valor no qual o modelo foi treinado. Uma vez tentei converter todos os preditores em forma nominal com o mesmo professor, mas não obtive nenhum resultado. Entretanto, o número de valores das variáveis nominais era um. Talvez precisemos de várias centenas? Estou trabalhando, mas muitas outras questões interessantes estão no caminho.
Essa é uma pesquisa longa, especialmente se você pesquisar por alguns segundos.
Sim, longa, realmente sem pressa, mas ainda assim longa.
O problema é que o poder preditivo dos preditores é apenas uma das fichas. E há muitas delas em meu pré-processamento, e cada uma requer um conjunto de estatísticas para justificá-la.
Mencionei mais um problema acima, para o qual não consigo encontrar uma solução há muito tempo.
Para um novo professor, não.
Estou tentando solucionar o problema de engrossamento dos valores do preditor. Parece-me que pode ocorrer um erro de classificação se o valor do preditor for ligeiramente diferente do valor no qual o modelo foi treinado. Uma vez tentei converter todos os preditores em forma nominal com o mesmo professor, mas não obtive nenhum resultado. Entretanto, o número de valores das variáveis nominais era um. Talvez precisemos de várias centenas? Estou trabalhando, mas muitas outras questões interessantes estão no caminho.
"
Um modelo ideal deve ter baixa tendência e baixa variação. No entanto, na realidade, há um chamado "trade-off" entre a tendência e a variação. Aumentar a complexidade do modelo (por exemplo, adicionar mais parâmetros) pode reduzir a tendência, mas aumentar a variação. Por outro lado, a simplificação do modelo pode reduzir a variação, mas aumentar a tendência.
"
Hipoteticamente, você pode dobrar o virabrequim até um nível satisfatório e afiar as folgas, mas isso não vai adiantar muito porque não é mais "por projeto"."
Um modelo ideal deve ter baixa tendência e baixa variação. No entanto, na realidade, há um chamado "trade-off" entre a tendência e a variação. Aumentar a complexidade do modelo (por exemplo, adicionar mais parâmetros) pode reduzir a tendência, mas aumentar a variação. Por outro lado, a simplificação do modelo pode reduzir a variação, mas aumentar a tendência.
"
Hipoteticamente, você pode dobrar o virabrequim até um nível satisfatório e afiar as folgas, mas isso não vai adiantar muito porque não é mais "por projeto".Por alguma razão, o terceiro componente é frequentemente esquecido - erro irrecuperável. Se ele for grande o suficiente (e me parece que temos muitos deles devido à proximidade dos preços com o SB), ele pode ser mais importante do que os dois primeiros.
De qualquer forma, esses são aspectos muito importantes que podem ser colocados em uma pergunta: Qual é o máximo de informações que podem ser extraídas da amostra de preços (e de outros dados disponíveis) que temos?
Por alguma razão, as pessoas geralmente se esquecem do terceiro componente - erro irrecuperável. Se ele for grande o suficiente (e me parece que em nosso país ele não é insignificante devido à proximidade dos preços com o SB), pode ser mais importante do que os dois primeiros.
De qualquer forma, esses são aspectos muito importantes que podem ser colocados em uma pergunta: Qual é o máximo de informações que podem ser extraídas da amostra de preços (e de outros dados disponíveis) que temos?
Portanto, não devemos tentar prever todos os casos, mas extrair os que são previstos por meio de mo
Isso é chamado de "efeito de tratamento heterogêneo", que pode ser comparado não a dobrar um virabrequim, mas a encontrar peças que funcionam e descartar as que não funcionam.
Então, os atributos de X se tornam contextuais e não são "preditores" de Y no sentido clássico. É por isso que no kozul eles são chamados de "covariáveis".
O resultado responderá à sua pergunta (dependendo do que for medido) sobre o máximo de informações. Normalmente, ele é medido em ATE ou CATE.
Uma pergunta: Qual é a quantidade máxima de informações que pode ser extraída da amostra de preços disponível (e de outros dados disponíveis)?
Por alguma razão, as pessoas geralmente se esquecem do terceiro componente - erro irrecuperável. Se ele for grande o suficiente (e me parece que em nosso país ele não é insignificante devido à proximidade dos preços com o SB), pode ser mais importante do que os dois primeiros.
De qualquer forma, esses são aspectos muito importantes que podem ser colocados em uma pergunta: Qual é o máximo de informações que podem ser extraídas da amostra de preços (e de outros dados disponíveis) que temos?
Essa é uma questão de pesquisa dissertativa, não de construção de um robô que corta a massa.
Não precisamos de um máximo de informações, precisamos de um mínimo suficiente. Portanto, podemos nos limitar ao seguinte:
1. Criar um modelo que apresente um erro de classificação inferior a 20% no estágio de classificação. E deve-se entender que o "modelo" inclui o pré-processamento completo dos preditores, bem como ferramentas para avaliação do modelo.
2. Insira o modelo em um Expert Advisor que ofereça pelo menos a mesma proporção de negociações perdedoras/lucrativas. Se o fator de lucro for superior a 4, resta mais um passo a ser dado.
3. Certifique-se de que nada mudou no OOS e entenda as razões para essa estabilidade no OOS, que está no pré-processamento, não no modelo.
E quais erros chegaram a 20% - isso é interessante?
Não seria mais fácil classificar os erros?
quanto mais erros encontrarmos, melhor ficará o modelo. não se trata de maximização de informações, mas de qualidade (perdoe o trocadilho).
Acho que a Snalo precisa definir a tarefa corretamente.
Em minha opinião, a opção de Maxim acima é muito boa. Como San Sanych observou corretamente, não é a informação em si que é importante, mas como ela ajuda a multiplicar o depósito).
Se, para simplificar, considerarmos uma estratégia de negociação como um tritente e Y como um lucro, então a definição (TS maximizando a expectativa de lucro) se torna bastante banal.
É uma questão de pesquisa de dissertação, não de criar um robô que corta a massa.
Não precisamos do máximo de informações, precisamos de um mínimo suficiente. Portanto, podemos nos limitar ao seguinte:
1. Criar um modelo que forneça um erro de classificação inferior a 20% no estágio de classificação. E é preciso entender que o "modelo" inclui o pré-processamento completo dos preditores, bem como ferramentas para avaliação do modelo.
2. Insira o modelo em um Expert Advisor que ofereça pelo menos a mesma proporção de negociações perdedoras/lucrativas. Se o fator de lucro for superior a 4, resta mais um passo a ser dado.
3. Verifique no OOS que nada mudou e entenda as razões para essa estabilidade no OOS, que está no pré-processamento, não no modelo.
E quais erros chegaram a 20% - isso é interessante?
Um não interfere no outro de forma alguma. Obviamente, o máximo não é apenas inatingível, mas até mesmo impossível de calcular, mas podemos tentar estimá-lo de alguma forma e compará-lo, pelo menos aproximadamente, com o spread, por exemplo. Refiro-me a uma variante do máximo como a proposta por Maxim.