Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2842

 
Aleksey Nikolayev #:

Você também está, de fato, fazendo otimização. Você inventou um critério de "estacionariedade de recursos" e selecionou os recursos ideais de acordo com ele. É a mesma otimização na história, mas no perfil.

Definitivamente, deveríamos inventar um critério de robustez de TS e otimizar de acordo com ele.)

Ótimo, em termos de tolerância.

Você vai a uma loja, escolhe uma calça - otimização de acordo com o seu número!

Aqui estamos falando de algo completamente diferente: o refinamento dos algoritmos de otimização disponíveis nos modelos. Eu me oponho ao refinamento de algoritmos de otimização já incorporados. Há um algoritmo no testador - tudo bem. O refinamento desse algoritmo não permitirá que você obtenha um TS lucrativo a partir de um algoritmo de drenagem. O mesmo se aplica aos algoritmos incorporados nos modelos.

Além disso, você deve ser extremamente cuidadoso ao otimizar os parâmetros do modelo, pois pode facilmente retreinar o modelo.

Cheguei ao pensamento mais importante: a conexão indubitável entre a otimização e o treinamento excessivo do modelo. O modelo deve ser sempre deixado de forma bastante "grosseira" e, certamente, não são necessárias otimizações globais.


Quando estou procurando uma lista aceitável de preditores - otimização no sentido tradicional. Mas o significado é bem diferente: tentar evitar a "entrada de lixo - saída de lixo". Há uma diferença qualitativa aqui em relação à tentativa de encontrar o algoritmo "certo" que encontra o ótimo global. Nenhum ótimo global proporcionará uma TS lucrativa sobre o lixo.

 

Maxim Vladimirovich, o que você acha do agrupamento quântico?

https://github.com/enniogit/Quantum_K-means

 
Aleksey Nikolayev #:

A palavra "otimização" tem uma má reputação em nosso fórum por motivos óbvios. Portanto, é compreensível que queiramos nos afastar dela de alguma forma e nem mesmo usar a palavra em si. No entanto, qualquer treinamento de um modelo MO é quase sempre uma otimização, portanto, não se pode tirar palavras de uma música.

Não quero magoar ninguém, ensinar-lhes sobre a vida ou explicar como fazer negócios. Escrevo apenas com uma leve esperança de que as metaquotes levem minhas observações em consideração ao implementar o MO no MT5.


como foi tirado da língua... Há uma atitude realmente negativa em relação ao conceito de "otimização".
Eu acrescentaria apenas que é preciso sempre lembrar que o modelo (TS) é primário, a otimização é secundária. Se o modelo não funcionar, a otimização não acrescentará robustez.
Na realidade, há TS que funcionam em uma ampla gama de parâmetros, mas, mesmo nesses sistemas, ainda há parâmetros ideais que darão um resultado de negociação mais alto no final, ou seja, a otimização não pode, por sua definição, piorar o modelo.
Ao criar um sistema de negociação, o modelo é importante em primeiro lugar, seus critérios de avaliação em segundo lugar e só depois vem a otimização.
Se alguém disser que a otimização é ruim, isso significa que ele ou ela fez a sequência incorretamente.
Somente compreendendo o que foi dito acima é que se pode chegar ao entendimento de que, não importa como seja, é impossível obter MO sem otimização.
O testador e o otimizador como um pacote ganharam notoriedade apenas pelo fato de os usuários fazerem uma porcaria e pensarem que, após a otimização, essa porcaria será lucrativa. não, não será, por isso será uma porcaria. isso é facilitado pela facilidade de criar Expert Advisors no ME e pela disponibilidade de variantes prontas na entrega. mas, ao mesmo tempo, praticamente não há ferramentas para avaliar a estratégia de criação de clusters de conjuntos de trabalho.
Para resumir o que foi dito acima, podemos concluir: os algoritmos de otimização tornarão as pessoas bem-sucedidas ainda mais bem-sucedidas (isso se aplica a qualquer esfera da atividade humana) e, infelizmente, as pessoas infelizes ainda mais infelizes.
a resposta é simples: eles são otimizados de acordo com os critérios do usuário do motorista do carro. embora as características gerais dos carros sejam as mesmas, o ajuste permite que você ajuste o carro, por exemplo, na curva de aceleração, outro motorista prefere uma velocidade mais alta em linha reta. nenhum dos motoristas dos carros pensa "otimização é uma merda! - caso contrário, você perderá, terá filhos com fome, uma esposa irritada e todas as outras delícias do fracasso.

Por isso, a sequência necessária para o sucesso: carro (TC) - critérios de ajuste (critérios de avaliação do TC) - otimização.
nenhuma outra sequência correta é possível em princípio.
 
Também gostaria de acrescentar que os algoritmos de otimização são, antes de tudo, algoritmos de pesquisa, e não são usados apenas para pesquisar parâmetros MASK, como muitas pessoas pensam.
É possível fazer coisas muito mais complexas e não triviais.
 
Andrey Dik #:

Ou seja, a otimização não pode, por definição, degradar o modelo.

Isso é correto para sistemas de controle automático, mas absolutamente NÃO é correto para modelos que operam em mercados financeiros com processos não estacionários. Existe um mal, um mal absoluto, chamado "treinamento excessivo". Esse é o principal mal (depois do lixo de entrada) que torna completamente inoperante qualquer modelo. Um bom modelo deve ser sempre subótimo, um pouco mais grosseiro do que a realidade. Acho que é o ótimo global que faz uma contribuição especial para o treinamento excessivo do modelo.

 
outro ponto importante.
Quanto menos parâmetros, melhor será o desempenho do modelo na cadeia de
modelo - critério - otimização,
Como os graus de liberdade aumentam, o que é ruim, aumentar o número de critérios ou parâmetros do critério, ao contrário, reduz os graus de liberdade do modelo, atuando como uma espécie de "limites".
Quanto ao número de parâmetros de AO, refiro-me às desvantagens do grande número de possibilidades de ajuste, pois isso complica a aplicação prática da AO, embora, nas mãos hábeis de um pesquisador que entenda o que está fazendo, permita obter vantagens adicionais na qualidade e na velocidade da otimização, de alguma forma reduzindo indiretamente a variabilidade do modelo ainda mais, se ele tiver muitos parâmetros.
 
СанСаныч Фоменко #:

Ideia correta para sistemas de controle automático, mas absolutamente NÃO correta para modelos que operam em mercados financeiros com processos NÃO estacionários. Existe um mal, um mal absoluto, chamado "supertreinamento". Esse é o principal mal (depois do lixo de entrada) que torna completamente inoperante qualquer modelo. Um bom modelo deve ser sempre subótimo, um pouco mais grosseiro do que a realidade. Acho que é o ótimo global que faz uma contribuição especial para o treinamento excessivo do modelo.


O treinamento excessivo não é consequência do uso indevido da otimização, mas sim da escolha errada do critério de avaliação do modelo. o erro foi cometido ANTES da otimização. e é bem possível que, mesmo no primeiro elemento da cadeia, o modelo seja ruim.
Dizer que o modelo deve ser um pouco mal treinado é tão errado quanto um bom sapador ou cirurgião mal treinado. Você deve culpar o sapador, o cirurgião ou seus professores, e não a própria possibilidade de aprender (melhorar, otimizar).
Culpar a não estacionariedade também é errado, o que também inclui a otimização. Isso significa que o pesquisador não tem um bom modelo para uma série não estacionária.
 
Peço desculpas se ofendi alguém ao mergulhar o leitor em uma dura realidade.
 

Parece que são usados conceitos com contextos diferentes.

Por exemplo, "platô" é uma ampla gama de configurações da maneira de obter fatores externos que influenciam a lógica do modelo. Por exemplo, uma ampla gama de eficiência de mashka com base na qual o preditor é feito.

A otimização com algoritmos MO, discutida aqui, está relacionada à construção da lógica de decisão, enquanto a otimização no testador de estratégia geralmente está relacionada ao ajuste dos dados de entrada, enquanto a lógica de decisão já está prescrita e, na melhor das hipóteses, tem variabilidade.

Os dois tipos de otimização são diferentes - um altera o espaço e o outro as relações nele existentes.

Agora eu me perguntava o que ajustar primeiro - sinais/preditores ou procurar um modelo e depois procurar as configurações ideais no otimizador de terminal. No entanto, é extremamente difícil procurar configurações se houver muitos dados de entrada.

É possível alterar o espaço e a lógica de uma só vez durante o treinamento? Talvez devêssemos pensar em como fazer isso?

SanSanych Fomenko, devemos esperar a amostragem?

 
Andrey Dik #:

O treinamento excessivo não é uma consequência do uso indevido da otimização, mas uma consequência da escolha errada do critério de avaliação do modelo. o erro foi cometido ANTES da otimização. e é bem possível que, no primeiro elemento da cadeia, o modelo seja ruim.
Dizer que o modelo deve ser um pouco mal treinado é tão errado quanto dizer que um bom sapador ou cirurgião é mal treinado. Deve-se culpar o sapador, o cirurgião ou seus professores, e não a própria possibilidade de aprender (melhorar, otimizar).
Culpar a não estacionariedade também é errado, o que também inclui a otimização. isso significa que o pesquisador não tem um bom modelo para uma série não estacionária.

Estou entendendo. Você tem um conhecimento superficial dos modelos de aprendizado de máquina.

O primeiro elemento da cadeia é o pré-processamento, que consome de 50% a 70% do trabalho. É aqui que o sucesso futuro é determinado.

O segundo elemento da cadeia é o treinamento do modelo no conjunto de treinamento.

O terceiro elemento da cadeia é a execução do modelo treinado no conjunto de testes. Se o desempenho do modelo nesses conjuntos for diferente em pelo menos um terço, o modelo será retreinado. Isso acontece de vez em quando, se não com mais frequência. Um modelo com treinamento excessivo é um modelo que é preciso demais. Desculpe, o básico.