Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2611

 
Renat Akhtyamov #:

99% de probabilidade ou 0,99 sem percentagem

És um homem assustador!

Ter esse tipo de probabilidade e comunicar com meros mortais...? - que não é real...

 
Serqey Nikitin #:

És um homem assustador!

Ter essa possibilidade e comunicar com os meros mortais...? - isso não é real...

vá lá ;)

a questão é que não importa o quanto os comerciantes tentem, no final a maioria deles acabam por negociar contra-tendências

olhar para a distribuição dos volumes na CME, são publicados dinamicamente em linha e o comportamento do preço

que mais uma vez diz apenas uma coisa - o preço é contra a maioria

comprado - preço baixo e vice-versa.

e assim foi e assim será sempre

porque:

https://www.mql5.com/ru/forum/86386/page2605#comment_28636383

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2022.03.29
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Não é uma boa ideia fazer uma estratégia baseada em informações da CME

porque.

logo que se apercebem, sabem como deitar fora a informação errada.

Já lá estive, fiz isso ;)

 

Acontece uma espécie de impulso, como Alexei assinalou

Melhoria a cada iteração, dada a amostragem do exame

Iteration: 0, R^2: 0.187883200953193
Iteration: 1, R^2: 0.23135332833695177
Iteration: 2, R^2: 0.5069635195005324
Iteration: 3, R^2: 0.6549692113098968
Iteration: 4, R^2: 0.49450581772674385
Iteration: 5, R^2: 0.727741771152099
Iteration: 6, R^2: 0.7155342473909062
Iteration: 7, R^2: 0.7577880020333465
Iteration: 8, R^2: 0.7519731839574526
Iteration: 9, R^2: 0.6484696911159258
Iteration: 10, R^2: 0.7919754252032625
Iteration: 11, R^2: 0.7434806103697286
Iteration: 12, R^2: 0.7829611167594436
Iteration: 13, R^2: 0.8423847977639594
Iteration: 14, R^2: 0.8755566220080022
Iteration: 15, R^2: 0.8073736447495541
Iteration: 16, R^2: 0.7756062175823373
Iteration: 17, R^2: 0.8767667338484959
Iteration: 18, R^2: 0.8658089653482818
Iteration: 19, R^2: 0.7976304450279426
Iteration: 20, R^2: 0.8335757510984808
Iteration: 21, R^2: 0.8236019726095158
Iteration: 22, R^2: 0.8590437311223307
Iteration: 23, R^2: 0.8425455355207566
Iteration: 24, R^2: 0.7897953478024325

Mas o dorso não é bom (à esquerda), mas por vezes é melhor.

Há muitas configurações, não vou explicar em detalhe. Descrevi a ideia o melhor que pude.


 

se esperar por 100 iterações


 
Maxim Dmitrievsky #:
A regularidade implica a repetibilidade. Não está à procura de um padrão, está a fazer um ajuste de validação.
O seu algoritmo não tem em conta a repetibilidade das dependências encontradas, por isso não verifica se existe um padrão...

Aqui está um exemplo nos seus dedos.
Tem uma amostra de 100 observações.
Pode construir 100 regras que utilizarão uma vez por previsão ou encontrar uma regra que utilizará 100 vezes...

Em que abordagem deve apostar?

 
Maxim Dmitrievsky #:

Acontece uma espécie de impulso, como Alexei assinalou

Melhoria a cada iteração, dada a amostragem do exame

Mas o dorso não é bom (à esquerda), mas por vezes é melhor.

Há muitas configurações, não vou explicar em detalhe. Descrevi a ideia o melhor que pude.


Basicamente, só preciso de olhar para 2 gráficos (equidade), todos em OOS puro: 1 - primeiro modelo, formado, sem quaisquer características extra, 2 - depois de todos estes procedimentos descritos. Também pode usar métricas PF, RF e winrate. E assim não é claro, qual é o efeito, uma bela curva de aprendizagem é, como eu entendo, sobre os SI?

 
Replikant_mih #:

De facto, basta olhar para dois gráficos (equidade), todos sobre OOS puro: 1 - o primeiro modelo, treinado, sem quaisquer folhos, 2 - depois de todos estes procedimentos descritos. Também pode usar métricas PF, RF e winrate. E assim não é claro, qual é o efeito, uma bela curva de aprendizagem é, como eu a entendo, sobre os SI?

primeiro terço do gráfico - novos dados, não envolvidos na aprendizagem

as imagens com 25 e 100 iterações mostram uma melhoria de 100, embora o máximo tenha sido de cerca de 70
 
Maxim Dmitrievsky #:

Há uma questão como esta:

São utilizados dois modelos. Um prevê comprar ou vender, o outro prevê comerciar ou não comerciar.

Primeiro o primeiro modelo é treinado, depois olhamos para onde ele prevê mal, marcamos estes exemplos como "não trocar", os outros bons como "trocar", ensinamos isto ao segundo modelo.

O primeiro modelo é testado não só na área da formação mas também na área adicional e o segundo modelo é treinado em ambas as áreas.

Repetimos isto várias vezes, reeducando ambos os modelos no mesmo conjunto de dados. Os resultados melhoram gradualmente nas amostras. Mas nem sempre na amostra de controlo.

Paralelamente, mantemos um registo de maus negócios cumulativo para todos os passes, todos os "maus" negócios para "não negociar" são recolhidos nele para treinar o segundo modelo e filtrados de acordo com um certo princípio, como quanto mais cópias de maus negócios para todos os passes, maior a possibilidade de os marcar como "não negociar".

Por exemplo, para cada data é acumulada alguma quantidade de maus negócios para todas as iterações de formação, quando este número excede um limiar (média, média), esses negócios são marcados como "não negociar". Os restantes ofícios são ignorados, caso contrário seria possível excluir todos os ofícios se houvesse muitas iterações de treino.

permite ajustar o número de negócios na saída, quanto mais baixo for, mais negócios são filtrados

... por este ponto já estou cansado de escrever ...

Como pode uma tal combinação de modelos ser melhorada de modo a melhorar os seus resultados numa nova parcela independente?
Existe alguma filosofia sobre a razão pela qual isto pode funcionar? Para além do facto de os modelos se melhorarem naturalmente uns aos outros (quedas de erro) em cada ronda de reciclagem, mas como se livrar do ajuste?

Ilustração. O gráfico está dividido em 3 partes. O último treina o primeiro modelo, o penúltimo e o último o segundo, o primeiro terço é uma amostra de exame. Naturalmente que a última secção será a melhor e a primeira a terceira a pior.

Aqui houve 15 iterações de requalificação dos dois modelos, utilizando o registo de maus negócios.

parece um Classificaton Multi-Label trivial - não devemos variar a combinação de modelos, mas a combinação de preditores -- antes de mais, a divisão dos preditores em características de acções inteligentes & de retalho... porque é claro que haverá sinais em contrário, mas os pontos de entrada OTF (para a quebra de níveis) - já é Edge para a selecção de modelos (dtf ou de acção no mercado)... imho

==========

ou sem marcação, mas apenas com LSTM com possibilidades de portas de esquecimento, para não ter de filtrar separadamente de 2 modelos... mas é tudo uma questão de gosto...

ibm

Consegui uma regressão na IBM (dados de teste de finais de 2021 - ali a cauda direita na tabela de preços está representada no comboio e na tabela de teste)... ... simplesmente por Fechar...

pred

- ... Tenho um MA trivial - e funcionará sempre numa tendência (como quer que funcione), não num comportamento plano - inteligente & de retalho deve ser filtrado adicionalmente (e o modelo deve ser redesenhado para classificar as entradas e saídas ...)

Arquivos anexados:
 
JeeyCi #:

parece um Classificaton Multi-Label trivial - não é a combinação de modelos que deve ser variada, mas a combinação de preditores - antes de mais a divisão dos preditores em características de acções inteligentes & de retalho... porque é claro que haverá sinais em contrário, mas os pontos de entrada OTF (para a quebra de níveis) - já é Edge para a selecção de modelos (dtf ou de acção no mercado)... imho

==========

ou sem marcação, mas apenas com LSTM e camadas, para não ter de filtrar separadamente de 2 modelos... mas é tudo uma questão de gosto...

Consegui uma regressão na IBM (dados de teste de finais de 2021 - ali a cauda direita na tabela de preços está representada no comboio e na tabela de teste)... ... simplesmente por Fechar... - Temos um MA trivial - e funcionará sempre numa tendência (não importa como), não em flat - o comportamento inteligente e retalhista deve ser filtrado adicionalmente (e o modelo deve ser redesenhado para classificar as entradas e saídas ...)

Não se trata de um rótulo multilingue, um significado diferente. Excluir os maus sinais iterativamente, deixar os que são bem previstos pelo modelo principal na pilha comum, e o segundo modelo aprende a separar o mau do bom, proibir ou permitir o comércio do primeiro

lstm produz sempre MA, testado há muito tempo