Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3023

 
Maxim Dmitrievsky #:

Isso é facilmente automatizado e funciona sem intervenção humana

Um algoritmo semelhante foi mostrado no último artigo.

Em essência, ele filtra os erros do modelo e os coloca em uma classe separada "não negociar", melhor por meio de um segundo modelo, que aprende a separar o grão do joio

e somente os grãos permanecem no primeiro modelo

É o mesmo que com as regras de árvore, só que de lado. Mas as regras devem ser pilhadas e comparadas umas com as outras, e já existe um TS refinado na saída.

Justifiquei acima que você não pode descartar erros de modelo.

Eu gostaria de mudar minha opinião.

Mas, para esse fim, isso é necessário.

Avaliação do modelo inicial na seleção de treinamento e fora dela

Avaliação de um modelo "limpo" fora da seleção de treinamento que NÃO corresponde aos dois modelos anteriores

É possível?

 
СанСаныч Фоменко #:

Justificado acima que você não pode descartar erros de modelo.

Eu gostaria de mudar minha opinião.

Mas para fazer isso.

Avaliação do modelo inicial dentro e fora da seleção de treinamento

Estimativa de um modelo "limpo" fora da seleção de treinamento que NÃO corresponde aos dois modelos anteriores

É possível?

Adicionei algumas telas acima

Os algoritmos para separar o grão do joio dessa forma podem ser diferentes, e eu mostro como faço isso.

À esquerda da linha pontilhada está o OOS, que não participa do treinamento de forma alguma

aprendendo sobre sinais simples, como incrementos

a curva amarela é o gráfico de cotações em si, não dê uma olhada nele. Mas você pode usá-la para entender em quais situações o modelo funciona melhor/pior
 

Se você descartar muitos erros de uma vez, o professor se degenera (pode haver muitos erros e zero grãos restantes), portanto, descarte gradualmente a cada iteração

e o erro em OOS diminui gradualmente; nesse caso, r^2 aumenta

Iteration: 0, R^2: 0.10170503363002426
Iteration: 1, R^2: 0.3786110827222656
Iteration: 2, R^2: 0.36326063198923375
Iteration: 3, R^2: 0.4316690005974817
Iteration: 4, R^2: 0.71390099630815
Iteration: 5, R^2: 0.8178962191209952
em essência, esse é um análogo do bestinterval do fxsaber, só que aqui o TS é preparado de uma só vez
 
Aleksey Vyazmikin #:

Acho que está tudo listado. Este é um livro de Jeremy Howard, fundador do Kaggle e do framevoc fast.ai.

Fast.ai.

Livro no original

Livro em russo

Versão gratuita

 
Maxim Dmitrievsky #:

Se você descartar muitos erros de uma vez, o professor se degenera (pode haver muitos erros e zero grãos restantes), portanto, descarte gradualmente a cada iteração

e o erro OOS diminui gradualmente e, nesse caso, r^2 aumenta.

Em essência, é um análogo do bestinterval do fxsaber, só que aqui o TS é preparado de uma só vez

Para mim, há um excesso de adaptação à citação.

Onde está "Fora da amostra"?

 
Talvez se você mexer nas árvores dessa forma e depois retirar as regras, fique melhor.
 
СанСаныч Фоменко #:

Para mim, há uma super adequação à citação.

Onde está "Out of sample"?

Isso não é mais engraçado.

 
Aleksey Vyazmikin #:

Eu proponho fazer esse chapéu com uma árvore em python com uma escolha de folhas, no kolab, você pode colocar seus conjuntos de dados lá.

Se você tiver alguma ideia do que é melhor/pior, regras para pegar apenas o melhor ou por meio de alguns filtros, sugira.

Quero comparar, tendo executado um conjunto de dados por meio de ambas as abordagens. Então, entenderemos o que é o quê :)

 
Maxim Dmitrievsky #:

Isso é facilmente automatizado e funciona sem intervenção humana

Um algoritmo semelhante foi mostrado no último artigo.

Em essência, ele filtra os erros do modelo e os coloca em uma classe separada "não negociar", melhor por meio de um segundo modelo, que aprende a separar o grão do joio

e somente os grãos permanecem no primeiro modelo

É o mesmo que com as regras de árvore, mas de lado. No entanto, as regras devem ser pilhadas e comparadas umas com as outras, e já existe um TS refinado na saída.

Por exemplo, a primeira iteração de seleção de grãos do joio (à esquerda da linha pontilhada vertical - OOS):

E aqui está a 10ª:


Sim, o objetivo é o mesmo: trabalhar, em última análise, com dados que descrevam melhor os preditores.

Como fazer isso de forma mais eficiente ainda é uma questão em aberto - cada método tem prós e contras.

 
Rorschach #:

Acho que está tudo listado. Este é um livro de Jeremy Howard, fundador do Kaggle e do framevoc fast.ai.

Fast.ai.

O livro no original

Livro em russo

Versão gratuita

Obrigado! Terei que procurar um livro gratuito em russo - o tradutor às vezes faz pérolas e me fala sobre salmoura, o que pode ser útil :)