Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3023
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Isso é facilmente automatizado e funciona sem intervenção humana
Um algoritmo semelhante foi mostrado no último artigo.
Em essência, ele filtra os erros do modelo e os coloca em uma classe separada "não negociar", melhor por meio de um segundo modelo, que aprende a separar o grão do joio
e somente os grãos permanecem no primeiro modelo
É o mesmo que com as regras de árvore, só que de lado. Mas as regras devem ser pilhadas e comparadas umas com as outras, e já existe um TS refinado na saída.
Justifiquei acima que você não pode descartar erros de modelo.
Eu gostaria de mudar minha opinião.
Mas, para esse fim, isso é necessário.
Avaliação do modelo inicial na seleção de treinamento e fora dela
Avaliação de um modelo "limpo" fora da seleção de treinamento que NÃO corresponde aos dois modelos anteriores
É possível?
Justificado acima que você não pode descartar erros de modelo.
Eu gostaria de mudar minha opinião.
Mas para fazer isso.
Avaliação do modelo inicial dentro e fora da seleção de treinamento
Estimativa de um modelo "limpo" fora da seleção de treinamento que NÃO corresponde aos dois modelos anteriores
É possível?
Adicionei algumas telas acima
Os algoritmos para separar o grão do joio dessa forma podem ser diferentes, e eu mostro como faço isso.
À esquerda da linha pontilhada está o OOS, que não participa do treinamento de forma alguma
aprendendo sobre sinais simples, como incrementos
a curva amarela é o gráfico de cotações em si, não dê uma olhada nele. Mas você pode usá-la para entender em quais situações o modelo funciona melhor/piorSe você descartar muitos erros de uma vez, o professor se degenera (pode haver muitos erros e zero grãos restantes), portanto, descarte gradualmente a cada iteração
e o erro em OOS diminui gradualmente; nesse caso, r^2 aumenta
em essência, esse é um análogo do bestinterval do fxsaber, só que aqui o TS é preparado de uma só vezAcho que está tudo listado. Este é um livro de Jeremy Howard, fundador do Kaggle e do framevoc fast.ai.
Fast.ai.
Livro no original
Livro em russo
Versão gratuita
Se você descartar muitos erros de uma vez, o professor se degenera (pode haver muitos erros e zero grãos restantes), portanto, descarte gradualmente a cada iteração
e o erro OOS diminui gradualmente e, nesse caso, r^2 aumenta.
Em essência, é um análogo do bestinterval do fxsaber, só que aqui o TS é preparado de uma só vezPara mim, há um excesso de adaptação à citação.
Onde está "Fora da amostra"?
Para mim, há uma super adequação à citação.
Onde está "Out of sample"?
Isso não é mais engraçado.
Eu proponho fazer esse chapéu com uma árvore em python com uma escolha de folhas, no kolab, você pode colocar seus conjuntos de dados lá.
Se você tiver alguma ideia do que é melhor/pior, regras para pegar apenas o melhor ou por meio de alguns filtros, sugira.
Quero comparar, tendo executado um conjunto de dados por meio de ambas as abordagens. Então, entenderemos o que é o quê :)
Isso é facilmente automatizado e funciona sem intervenção humana
Um algoritmo semelhante foi mostrado no último artigo.
Em essência, ele filtra os erros do modelo e os coloca em uma classe separada "não negociar", melhor por meio de um segundo modelo, que aprende a separar o grão do joio
e somente os grãos permanecem no primeiro modelo
É o mesmo que com as regras de árvore, mas de lado. No entanto, as regras devem ser pilhadas e comparadas umas com as outras, e já existe um TS refinado na saída.
Por exemplo, a primeira iteração de seleção de grãos do joio (à esquerda da linha pontilhada vertical - OOS):
E aqui está a 10ª:
Sim, o objetivo é o mesmo: trabalhar, em última análise, com dados que descrevam melhor os preditores.
Como fazer isso de forma mais eficiente ainda é uma questão em aberto - cada método tem prós e contras.
Acho que está tudo listado. Este é um livro de Jeremy Howard, fundador do Kaggle e do framevoc fast.ai.
Fast.ai.
O livro no original
Livro em russo
Versão gratuita
Obrigado! Terei que procurar um livro gratuito em russo - o tradutor às vezes faz pérolas e me fala sobre salmoura, o que pode ser útil :)