Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2799

 
elibrarius #:

O Busting busca as melhores divisões de todas as colunas e de todos os exemplos. Ou seja, ele usa as melhores fichas.
Schuch. forest pega metade das fichas e metade dos exemplos (a proporção é configurável) para cada árvore e, a partir de 20 a 100 árvores, encontra a média. Se houver apenas 5 fichas informativas de 200 fichas, algumas das árvores não incluirão fichas informativas (em média, 2,5 fichas informativas por árvore). E faremos a média de uma parte das árvores informativas com árvores de ruído. O resultado também será muito ruidoso.
Uma floresta esporádica funciona bem se houver muitas fichas informativas (como nos exemplos clássicos/problemas de MO).

O Busting encontrará e usará as fichas mais informativas, pois verifica todas elas. Portanto, pela lógica do bousting, ele selecionará as melhores fichas por si só. Mas o bousting também tem seus próprios problemas.

Não posso concordar com você em relação ao bousting.

O Busting encontrará recursos que têm uma forte correlação (poder preditivo) - acredite nisso. Tudo está bem se a magnitude da correlação for constante. Desistindo da estimativa da característica em si, no bousting não podemos rastrear a variabilidade da magnitude da associação e, de acordo com meus dados, o SD da estimativa da associação pode variar de 10% a 120 (em minhas características). O que o bousting nos proporcionará? Afinal de contas, precisamos amostrar as características que têm mais variabilidade.

 
СанСаныч Фоменко #:

A avaliação em si é algo relativo.

Vou repetir as imagens.

É ruim, não há esperança.


Melhor ainda, se houver vários deles, podemos falar em 30% de erro de previsão.


E o lixo deve ser removido, porque no conjunto de treinamento o chip pode estar a favor do lixo, e é mais fácil encontrar o valor que leva ao ideal.

Quanto mais informações mútuas no particionamento de classes, menos as distribuições se sobrepõem, o que é lógico

As distribuições continuarão flutuando com novos dados.

Eu não confiaria muito nessa manipulação, é apenas uma ideia para tentar.
 
elibrarius #:

O Busting busca as melhores divisões de todas as colunas e de todos os exemplos. Ou seja, ele usa as melhores fichas.
Schuch. forest pega metade das fichas e metade dos exemplos (a proporção é configurável) para cada árvore e, a partir de 20 a 100 árvores, encontra a média. Se houver apenas 5 fichas informativas de 200 fichas, algumas das árvores não conterão fichas informativas (em média, 2,5 fichas informativas por árvore). E faremos a média de uma parte das árvores informativas com árvores de ruído. O resultado também será muito ruidoso.
Uma floresta esporádica funciona bem se houver muitas fichas informativas (como nos exemplos clássicos/problemas de MO).

O Busting encontrará e usará as fichas mais informativas, pois verifica todas elas. Portanto, pela lógica do bousting, ele selecionará as melhores fichas por si só. Mas o bousting também tem seus próprios problemas.

Logicamente
 
Maxim Dmitrievsky #:
Quanto mais informações mútuas houver na divisão em classes, menos as distribuições se sobrepõem, o que é lógico

As distribuições ainda flutuarão nos novos dados.

Eu não confiaria muito em nenhuma dessas manipulações, apenas uma ideia para tentar.

Você não notou a variabilidade do sd

 
СанСаныч Фоменко #:

Não concordo com o buquê.

O bousting encontrará recursos que têm forte correlação (poder preditivo) - acredite nisso. Tudo estará bem se a magnitude da relação for constante. Desistindo da estimativa da característica em si, no bousting não podemos rastrear a variabilidade da magnitude da associação e, de acordo com meus dados, o SD da estimativa da associação pode variar de 10% a 120 (em minhas características). O que o bousting nos proporcionará? Afinal de contas, precisamos amostrar as características que têm mais variabilidade.

Todos os modelos de MO procuram padrões. O Bousting seleciona automaticamente as melhores características na linha.

Se houver variabilidade (por exemplo, em dados de mercado), precisaremos fazer algo a mais. Fiz experimentos com o Walking Forward. Mas ele apenas mostra o resultado, não afeta a seleção de sinais. E nada pode prever quais recursos funcionarão no futuro se não houver padrões ou se eles mudarem. A única chance é que eles não mudem instantaneamente, e o padrão funcionará por algum tempo.

 
Aleksey Vyazmikin #:

Criou um tópico com uma amostra que prova o contrário - o busting não é onipotente, especialmente fora da caixa.

Acho que não se trata de um problema de reforço, mas de um problema de variabilidade de dados. Tentarei treinar com seus dados.
 
elibrarius #:
Acho que não se trata de um problema de impulso, mas de um problema de variabilidade de dados. Tentarei treinar com seus dados.

É claro que não se trata do algoritmo em si, mas dos dados.

Faça uma tentativa e veja o que você consegue!

A amostra é relativamente única, pois é difícil treiná-la para que algo funcione fora do treinamento.

Ainda estou fazendo experiências com ela.

 
Aleksey Vyazmikin #:

A amostra é relativamente única, pois é difícil treinar em algo que funcionaria fora do treinamento.

Como isso é único? Os dados de mercado geralmente não funcionam fora do treinamento. Eu lhe fiz algumas perguntas

 
elibrarius #:

Isso é exclusividade? Fora do treinamento, os dados de mercado geralmente não funcionam. Eu lhe fiz algumas perguntas

Bem, eles não funcionam, geralmente funcionam, mas não muito bem.

A peculiaridade aqui é que o modelo CatBoost prefere atribuir a todos os exemplos uma probabilidade menor que 0,5 - portanto, ele não classifica o alvo "1", e o que está entre 0 e 0,5 também não é muito bem distribuído - há capturas de tela do modelo no tópico.

 
Aleksey Vyazmikin #:

A peculiaridade aqui é que o modelo CatBoost prefere atribuir a todos os exemplos uma probabilidade menor que 0,5 - portanto, ele não classifica o alvo "1", e o que está entre 0 e 0,5 também é muito mal distribuído - há capturas de tela do modelo no tópico.

A peculiaridade aqui é que parece haver um forte desequilíbrio de classes. Se, para 100 exemplos, houver 5 rótulos de uma classe e 95 rótulos de outra classe, como o modelo pode dar mais de 0,5 de probabilidade para a primeira classe? Essa não é uma pergunta para o modelo, é uma pergunta para o autor do conjunto de dados...?