Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 89

 
Vizard_:
O controle deslizante é para fans)))) e o fato de que somente neste caso o modelo é adequado é enganoso.
Mas isso é tudo um disparate, cada um tem as suas peculiaridades-necessidades em fases diferentes, também se pode acrescentar.
Eu quis dizer % de saída tanto para geral como para teste (teste = OOS - aplicação da fórmula a novos dados)
Um plus de aplicações de janela, na sua rápida usabilidade. É possível fazer uma concha normal,
Reshetov é um programador experiente, por isso deve ser feito de uma forma normal. E é tudo. Tudo imho, claro.
Não vou tentar o software do Yuri, não porque acho que ele fez porcaria. Embora ele seja um programador experiente. É que tudo já está implementado, até parece que há um passo em frente no pacote que uso. E há 150-200 modelos por amostra, desde SVM, ao modelo linear com regularização, até XGBOOST.
 
Alexey Burnakov:


Quando a seleção de um bom modelo em uma amostra dá bons resultados fora da amostra significa que o modelo é adequado para o problema escolhido.

Mais uma vez, para aqueles que são particularmente dotados: se um modelo passa na seleção, isso não significa que ele seja potencialmente adequado para o problema escolhido, especialmente em ambientes não-estacionários. Isso só significa que de alguma forma passou na selecção.

Se uma candidata passou nos exames de admissão à universidade, isso não significa que ela irá defender o seu diploma, muito menos que irá posteriormente trabalhar na sua área escolhida.

A seleção apenas reduz a probabilidade de inadequação, mas nem sempre a zero. E não devemos esquecer que os resultados da seleção também podem ser falsos positivos e falsos negativos. Ou seja, há uma probabilidade não nula de que o processo de seleção também tenha jogado "o bebê fora com a água do banho".

 
Yury Reshetov:

Mais uma vez, para os particularmente dotados: se um modelo passa na selecção, não significa que seja potencialmente adequado para o problema escolhido, especialmente em ambientes não estacionários. Isso só significa que de alguma forma passou na selecção.

Se uma candidata for selecionada através dos exames de admissão à universidade, isso não significa que ela irá defender o seu diploma, muito menos que irá posteriormente trabalhar na sua especialidade escolhida.

A seleção apenas reduz a probabilidade de inadequação, mas nem sempre a zero. E não devemos esquecer que os resultados da seleção também podem ser falsos positivos e falsos negativos. Ou seja, há uma probabilidade não nula de que o processo de seleção também tenha jogado "o bebê fora com a água do banho".

Deixe-me explicar novamente para os muito sofisticados.

Todos os resultados são, naturalmente, probabilísticos!

Há resultados de modelos em treinamento, há resultados em validação cruzada ou testes (para pegar os parâmetros do modelo e fazer uma parada de aprendizagem precoce). Há também resultados de modelos fora da amostra - estimativa final.

Se os resultados dos testes se correlacionarem bem com os resultados fora da amostra, significa que a qualidade da modelagem de dependência tem inércia para o período fora da amostra. Neste caso, o melhor modelo em teste (não "fora da amostra") pode ser tomado. Posteriormente, pode-se recriar o modelo em todos os novos dados com parâmetros conhecidos e tomar o melhor modelo, já que a relação com resultados futuros é praticamente estabelecida.

Se os resultados do teste se correlacionam mal com os resultados fora da amostra, não faz sentido pegar o melhor modelo no treinamento. Tirar o melhor modelo em "fora de amostra" é um ajuste. Existe apenas uma saída - rejeitar o método de criação de modelos ou alterar significativamente os intervalos de parâmetros.

 
E eu, por exemplo, uso o aprendizado profundo para aumentar a capacidade de generalização do otimista da Reshetov, e com a nova possibilidade de avaliar a qualidade do predicado, é uma beleza. Com o aprendizado profundo de 50% de generalização pode ser elevado para 80-90%. E neste caso o modelo começa a funcionar na hurray.... Por isso, continuem a partir daqui, rapazes. E não há necessidade de discutir (c) Leopold e todos os outros......
 
.

"Você poderia sugerir que eles criassem um tópico por uma semana, por exemplo -- uma semana para as pessoas se expressarem -- e depois deixá-los esfregá-lo."

Eu não sei que tipo de hobgoblin inseriu a citação acima no meu post, mas não é o meu post.

Se os moderadores não gostam de algo nos meus postos, é um direito deles. Só não cole o texto de outra pessoa nos meus posts, e aja mais culturalmente: diga o que exatamente eles não gostaram e em seu próprio nome. E eu, para não irritar os moderadores, saio deste site para o meu: o link está no meu perfil.

Adeus a todos!

 
Yury Reshetov:
.

"Você poderia sugerir que eles criassem um tópico por uma semana, por exemplo -- uma semana para as pessoas se expressarem -- e depois deixá-los esfregá-lo."

Eu não sei que tipo de hobgoblin inseriu a citação acima no meu post, mas não é o meu post.

Se os moderadores não gostam de algo nos meus postos, é um direito deles. Só não cole o texto de outra pessoa nos meus posts, e aja mais culturalmente: diga o que exatamente eles não gostaram e em seu próprio nome. E eu, para não irritar os moderadores, saio deste site para o meu: o link está no meu perfil.

Adeus a todos!

WOW!!! E eu a pensar que foste tu que escreveste... Jogada inteligente... É isso mesmo...
 
Yury Reshetov:
.

"Você poderia sugerir que eles criassem um tópico por uma semana, por exemplo -- uma semana para as pessoas se expressarem -- e depois deixá-los esfregá-lo."

Eu não sei que gimmick inseriu a citação acima no meu post, mas não é o meu post.

Se os moderadores não gostam de algo nos meus postos, é um direito deles. Só não cole o texto de outra pessoa nos meus posts, e aja mais culturalmente: diga o que exatamente eles não gostaram e em seu próprio nome. E eu, para não irritar os moderadores, saio deste site para o meu: o link está no meu perfil.

Adeus a todos!

Esteja à vontade para voltar.
 
Vizard_:

Vou dar uma vista de olhos mais tarde, embora eu ache que fiz alguma porcaria em 4)
Sim, +R é que provavelmente já implementou tudo o que é possível. ML há muito tempo que não uso, mas apenas modelos sem reciclagem. Uma das últimas coisas que eu fiz com o ML foi apenas
encher o modelo de eventos para que eles atinjam sempre o alvo. Se os combinarmos, normalmente ficamos com 93-96%. O resto, você treina. Em outras palavras.
Se você ensinou seu filho a andar um pouco, você não precisa dizer a ele a mesma coisa todos os dias, você só diz a ele quando pular por cima da poça.
(sem previsão no alvo) (um pouco pingando, o alvo não é certamente a cor da vela)))
Não faço ideia de como fazer isto, mas não tenho a certeza de como o fazer.
 
Vizard_:

Um pouco pingando, o alvo não é, obviamente, a cor da vela)))
Não é preciso dizer que não.)
 
Nested cross validation for model selection
Nested cross validation for model selection
  • stats.stackexchange.com
How can one use nested cross validation for model selection? From what I read online, nested CV works as follows: There is the inner CV loop, where we may conduct a grid search (e.g. running K-fold for every available model, e.g. combination of hyperparameters/features) There is the outer CV loop, where we measure the performance of the model...