Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2799
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
O Busting busca as melhores divisões de todas as colunas e de todos os exemplos. Ou seja, ele usa as melhores fichas.
Schuch. forest pega metade das fichas e metade dos exemplos (a proporção é configurável) para cada árvore e, a partir de 20 a 100 árvores, encontra a média. Se houver apenas 5 fichas informativas de 200 fichas, algumas das árvores não incluirão fichas informativas (em média, 2,5 fichas informativas por árvore). E faremos a média de uma parte das árvores informativas com árvores de ruído. O resultado também será muito ruidoso.
Uma floresta esporádica funciona bem se houver muitas fichas informativas (como nos exemplos clássicos/problemas de MO).
O Busting encontrará e usará as fichas mais informativas, pois verifica todas elas. Portanto, pela lógica do bousting, ele selecionará as melhores fichas por si só. Mas o bousting também tem seus próprios problemas.
Não posso concordar com você em relação ao bousting.
O Busting encontrará recursos que têm uma forte correlação (poder preditivo) - acredite nisso. Tudo está bem se a magnitude da correlação for constante. Desistindo da estimativa da característica em si, no bousting não podemos rastrear a variabilidade da magnitude da associação e, de acordo com meus dados, o SD da estimativa da associação pode variar de 10% a 120 (em minhas características). O que o bousting nos proporcionará? Afinal de contas, precisamos amostrar as características que têm mais variabilidade.
A avaliação em si é algo relativo.
Vou repetir as imagens.
É ruim, não há esperança.
Melhor ainda, se houver vários deles, podemos falar em 30% de erro de previsão.
E o lixo deve ser removido, porque no conjunto de treinamento o chip pode estar a favor do lixo, e é mais fácil encontrar o valor que leva ao ideal.
O Busting busca as melhores divisões de todas as colunas e de todos os exemplos. Ou seja, ele usa as melhores fichas.
Schuch. forest pega metade das fichas e metade dos exemplos (a proporção é configurável) para cada árvore e, a partir de 20 a 100 árvores, encontra a média. Se houver apenas 5 fichas informativas de 200 fichas, algumas das árvores não conterão fichas informativas (em média, 2,5 fichas informativas por árvore). E faremos a média de uma parte das árvores informativas com árvores de ruído. O resultado também será muito ruidoso.
Uma floresta esporádica funciona bem se houver muitas fichas informativas (como nos exemplos clássicos/problemas de MO).
O Busting encontrará e usará as fichas mais informativas, pois verifica todas elas. Portanto, pela lógica do bousting, ele selecionará as melhores fichas por si só. Mas o bousting também tem seus próprios problemas.
Quanto mais informações mútuas houver na divisão em classes, menos as distribuições se sobrepõem, o que é lógico
Você não notou a variabilidade do sd
Não concordo com o buquê.
O bousting encontrará recursos que têm forte correlação (poder preditivo) - acredite nisso. Tudo estará bem se a magnitude da relação for constante. Desistindo da estimativa da característica em si, no bousting não podemos rastrear a variabilidade da magnitude da associação e, de acordo com meus dados, o SD da estimativa da associação pode variar de 10% a 120 (em minhas características). O que o bousting nos proporcionará? Afinal de contas, precisamos amostrar as características que têm mais variabilidade.
Todos os modelos de MO procuram padrões. O Bousting seleciona automaticamente as melhores características na linha.
Se houver variabilidade (por exemplo, em dados de mercado), precisaremos fazer algo a mais. Fiz experimentos com o Walking Forward. Mas ele apenas mostra o resultado, não afeta a seleção de sinais. E nada pode prever quais recursos funcionarão no futuro se não houver padrões ou se eles mudarem. A única chance é que eles não mudem instantaneamente, e o padrão funcionará por algum tempo.
Criou um tópico com uma amostra que prova o contrário - o busting não é onipotente, especialmente fora da caixa.
Acho que não se trata de um problema de impulso, mas de um problema de variabilidade de dados. Tentarei treinar com seus dados.
É claro que não se trata do algoritmo em si, mas dos dados.
Faça uma tentativa e veja o que você consegue!
A amostra é relativamente única, pois é difícil treiná-la para que algo funcione fora do treinamento.
Ainda estou fazendo experiências com ela.
A amostra é relativamente única, pois é difícil treinar em algo que funcionaria fora do treinamento.
Como isso é único? Os dados de mercado geralmente não funcionam fora do treinamento. Eu lhe fiz algumas perguntas
Isso é exclusividade? Fora do treinamento, os dados de mercado geralmente não funcionam. Eu lhe fiz algumas perguntas
Bem, eles não funcionam, geralmente funcionam, mas não muito bem.
A peculiaridade aqui é que o modelo CatBoost prefere atribuir a todos os exemplos uma probabilidade menor que 0,5 - portanto, ele não classifica o alvo "1", e o que está entre 0 e 0,5 também não é muito bem distribuído - há capturas de tela do modelo no tópico.
A peculiaridade aqui é que o modelo CatBoost prefere atribuir a todos os exemplos uma probabilidade menor que 0,5 - portanto, ele não classifica o alvo "1", e o que está entre 0 e 0,5 também é muito mal distribuído - há capturas de tela do modelo no tópico.
A peculiaridade aqui é que parece haver um forte desequilíbrio de classes. Se, para 100 exemplos, houver 5 rótulos de uma classe e 95 rótulos de outra classe, como o modelo pode dar mais de 0,5 de probabilidade para a primeira classe? Essa não é uma pergunta para o modelo, é uma pergunta para o autor do conjunto de dados...?