Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3142

 
Maxim Dmitrievsky #:

alguns gráficos de D.O.C., pode ser?

Não para um novo professor.

Estou tentando resolver o problema de engrossamento dos valores do preditor. Parece-me que pode ocorrer um erro de classificação se o valor do preditor for ligeiramente diferente do valor no qual o modelo foi treinado. Uma vez tentei converter todos os preditores em forma nominal com o mesmo professor, mas não obtive nenhum resultado. Entretanto, o número de valores das variáveis nominais era um. Talvez precisemos de várias centenas? Estou trabalhando, mas muitas outras questões interessantes estão no caminho.

 
Forester #:

Essa é uma pesquisa longa, especialmente se você pesquisar por alguns segundos.

Sim, longa, realmente sem pressa, mas ainda assim longa.

O problema é que o poder preditivo dos preditores é apenas uma das fichas. E há muitas delas em meu pré-processamento, e cada uma requer um conjunto de estatísticas para justificá-la.

Mencionei mais um problema acima, para o qual não consigo encontrar uma solução há muito tempo.

 
СанСаныч Фоменко #:

Para um novo professor, não.

Estou tentando solucionar o problema de engrossamento dos valores do preditor. Parece-me que pode ocorrer um erro de classificação se o valor do preditor for ligeiramente diferente do valor no qual o modelo foi treinado. Uma vez tentei converter todos os preditores em forma nominal com o mesmo professor, mas não obtive nenhum resultado. Entretanto, o número de valores das variáveis nominais era um. Talvez precisemos de várias centenas? Estou trabalhando, mas muitas outras questões interessantes estão no caminho.

"

Um modelo ideal deve ter baixa tendência e baixa variação. No entanto, na realidade, há um chamado "trade-off" entre a tendência e a variação. Aumentar a complexidade do modelo (por exemplo, adicionar mais parâmetros) pode reduzir a tendência, mas aumentar a variação. Por outro lado, a simplificação do modelo pode reduzir a variação, mas aumentar a tendência.


"

Hipoteticamente, você pode dobrar o virabrequim até um nível satisfatório e afiar as folgas, mas isso não vai adiantar muito porque não é mais "por projeto".
 
Maxim Dmitrievsky #:

"

Um modelo ideal deve ter baixa tendência e baixa variação. No entanto, na realidade, há um chamado "trade-off" entre a tendência e a variação. Aumentar a complexidade do modelo (por exemplo, adicionar mais parâmetros) pode reduzir a tendência, mas aumentar a variação. Por outro lado, a simplificação do modelo pode reduzir a variação, mas aumentar a tendência.


"

Hipoteticamente, você pode dobrar o virabrequim até um nível satisfatório e afiar as folgas, mas isso não vai adiantar muito porque não é mais "por projeto".

Por alguma razão, o terceiro componente é frequentemente esquecido - erro irrecuperável. Se ele for grande o suficiente (e me parece que temos muitos deles devido à proximidade dos preços com o SB), ele pode ser mais importante do que os dois primeiros.

De qualquer forma, esses são aspectos muito importantes que podem ser colocados em uma pergunta: Qual é o máximo de informações que podem ser extraídas da amostra de preços (e de outros dados disponíveis) que temos?

 
Aleksey Nikolayev #:

Por alguma razão, as pessoas geralmente se esquecem do terceiro componente - erro irrecuperável. Se ele for grande o suficiente (e me parece que em nosso país ele não é insignificante devido à proximidade dos preços com o SB), pode ser mais importante do que os dois primeiros.

De qualquer forma, esses são aspectos muito importantes que podem ser colocados em uma pergunta: Qual é o máximo de informações que podem ser extraídas da amostra de preços (e de outros dados disponíveis) que temos?

Portanto, não devemos tentar prever todos os casos, mas extrair os que são previstos por meio de mo

Isso é chamado de "efeito de tratamento heterogêneo", que pode ser comparado não a dobrar um virabrequim, mas a encontrar peças que funcionam e descartar as que não funcionam.

Então, os atributos de X se tornam contextuais e não são "preditores" de Y no sentido clássico. É por isso que no kozul eles são chamados de "covariáveis".

O resultado responderá à sua pergunta (dependendo do que for medido) sobre o máximo de informações. Normalmente, ele é medido em ATE ou CATE.


 
Aleksey Nikolayev #:

Uma pergunta: Qual é a quantidade máxima de informações que pode ser extraída da amostra de preços disponível (e de outros dados disponíveis)?

Acho que precisamos definir a tarefa corretamente.

Definir informações

Defina "informações máximas" (pelo menos para entender quando parar).

Perceber que cada alvo terá um conjunto diferente, portanto, precisamos declarar o alvo.


Mas é uma pergunta interessante, eu gosto dela.
 
Aleksey Nikolayev #:

Por alguma razão, as pessoas geralmente se esquecem do terceiro componente - erro irrecuperável. Se ele for grande o suficiente (e me parece que em nosso país ele não é insignificante devido à proximidade dos preços com o SB), pode ser mais importante do que os dois primeiros.

De qualquer forma, esses são aspectos muito importantes que podem ser colocados em uma pergunta: Qual é o máximo de informações que podem ser extraídas da amostra de preços (e de outros dados disponíveis) que temos?

Essa é uma questão de pesquisa dissertativa, não de construção de um robô que corta a massa.

Não precisamos de um máximo de informações, precisamos de um mínimo suficiente. Portanto, podemos nos limitar ao seguinte:

1. Criar um modelo que apresente um erro de classificação inferior a 20% no estágio de classificação. E deve-se entender que o "modelo" inclui o pré-processamento completo dos preditores, bem como ferramentas para avaliação do modelo.

2. Insira o modelo em um Expert Advisor que ofereça pelo menos a mesma proporção de negociações perdedoras/lucrativas. Se o fator de lucro for superior a 4, resta mais um passo a ser dado.

3. Certifique-se de que nada mudou no OOS e entenda as razões para essa estabilidade no OOS, que está no pré-processamento, não no modelo.

E quais erros chegaram a 20% - isso é interessante?

 

Não seria mais fácil classificar os erros?

quanto mais erros encontrarmos, melhor ficará o modelo. não se trata de maximização de informações, mas de qualidade (perdoe o trocadilho).

 
mytarmailS #:
Acho que a Snalo precisa definir a tarefa corretamente.

Definir informações

Defina o "máximo de informações" (pelo menos para saber quando parar).

Perceber que cada alvo terá um conjunto diferente, portanto, precisamos declarar o alvo.


Mas é uma pergunta interessante, eu gosto dela.

Em minha opinião, a opção de Maxim acima é muito boa. Como San Sanych observou corretamente, não é a informação em si que é importante, mas como ela ajuda a multiplicar o depósito).

Se, para simplificar, considerarmos uma estratégia de negociação como um tritente e Y como um lucro, então a definição (TS maximizando a expectativa de lucro) se torna bastante banal.

 
СанСаныч Фоменко #:

É uma questão de pesquisa de dissertação, não de criar um robô que corta a massa.

Não precisamos do máximo de informações, precisamos de um mínimo suficiente. Portanto, podemos nos limitar ao seguinte:

1. Criar um modelo que forneça um erro de classificação inferior a 20% no estágio de classificação. E é preciso entender que o "modelo" inclui o pré-processamento completo dos preditores, bem como ferramentas para avaliação do modelo.

2. Insira o modelo em um Expert Advisor que ofereça pelo menos a mesma proporção de negociações perdedoras/lucrativas. Se o fator de lucro for superior a 4, resta mais um passo a ser dado.

3. Verifique no OOS que nada mudou e entenda as razões para essa estabilidade no OOS, que está no pré-processamento, não no modelo.

E quais erros chegaram a 20% - isso é interessante?

Um não interfere no outro de forma alguma. Obviamente, o máximo não é apenas inatingível, mas até mesmo impossível de calcular, mas podemos tentar estimá-lo de alguma forma e compará-lo, pelo menos aproximadamente, com o spread, por exemplo. Refiro-me a uma variante do máximo como a proposta por Maxim.