Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3019

 
Aleksey Vyazmikin #:

Foi assim que escrevi qual é a diferença entre ganância e genética para madeira - talvez eu não tenha entendido a pergunta.

Nunca ouvi falar em extrair regras da rede neural. Você pode me fornecer um link? Até agora, algo complicado está se desenhando em minha imaginação.

Mas acho que as redes neurais aqui serão obviamente mais lentas do que as árvores em termos de velocidade de emissão de novas regras.

Toda a sua ideia de separar "regras boas" das ruins é completamente sem saída, metodologicamente sem saída.

Você, por algum motivo, acha que as regras "boas" (árvores) são realmente "boas".

E não se trata apenas da imprecisão do futuro delas, mas do fato de que não há regras que possam ser consideradas de acordo com algum critério. Há regras que produzem uma VARIABILIDADE de "bondade" que muda conforme a janela se move, e é bem possível que essa regra passe de "boa" para "ruim" conforme a janela se move. Essa variabilidade é definida por um valor que divide a probabilidade de previsão em classes.

Normalmente, nos algoritmos de MO, a divisão em classes é feita dividindo-se a probabilidade de previsão da classe pela metade, mas isso é totalmente incorreto. Eu considero o valor da divisão em classes - nunca é 0,5: esse valor varia e depende do preditor específico.

Agora, voltemos às suas árvores "boas".

Se você selecionou árvores cuja "bondade" está próxima do limite, isso muda. É por isso que argumentei acima que as árvores "boas" que você selecionou poderiam facilmente se tornar árvores ruins.


É um beco sem saída.

 
Igor Makanu #:

A Yandex escreveu algo semelhante https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Belo tutorial da Yandex, não está mal escrito. Outra seção tem mais a ver com o que eu penso. Ela descreve o tipo geral de função de perda usada na construção de árvores. A ideia é que otimizar o preço médio do erro e maximizar o lucro é equivalente a otimizar a soma dos preços dos erros.

Se traduzido em termos de lucro, é a diferença entre o lucro total e o lucro médio em uma negociação. Como estou resolvendo o problema da classificação binária (entrar/não entrar), a maximização do lucro médio em uma negociação levará estupidamente a entrar em uma ou duas negociações e descartar o restante.

Estou tentando entender se esse é um limite intransponível entre otimização e MO ou não.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Belo tutorial da Yandex, não está mal escrito. O que eu penso tem mais a ver com outra seção do tutorial. Ela descreve o tipo geral de função de perda usada na construção de árvores. A questão é que, nesse caso, otimizar o preço médio do erro e maximizar o lucro é equivalente a otimizar a soma dos preços dos erros.

Se traduzido em termos de lucro, é a diferença entre o lucro total e o lucro médio em uma negociação. Como estou resolvendo o problema da classificação binária (entrar/não entrar), a maximização do lucro médio em uma negociação levará estupidamente a entrar em uma ou duas negociações e descartar o restante.

Estou tentando entender se esse é um limite intransponível entre otimização e MO ou não.

O que o impede de escrever sua própria função de perda?

 
Maxim Dmitrievsky #:
Esse é o meu resumo sobre a árvore ) O Google funciona, eu mesmo o utilizo. Os especialistas em mergulho geralmente se aproximam muito de como eu percebo a realidade.


Obrigado pelo conselho!

 
Aleksey Vyazmikin #:

Obrigado pela orientação!

É complicado lá fora, fiz uma pesquisa sobre o assunto ontem à noite. As mesmas árvores extraem regras de escalas e camadas NS. Elas também estão extraindo regras de redes de superprecisão. Farei uma postagem quando tiver mais informações. A árvore na análise exploratória, de alguma forma, parece muito legal agora sob esse ângulo de pesquisa de regras, provavelmente supera a otimização genética em termos de velocidade, com um conjunto de dados adequadamente preparado.
Ainda não experimentei, talvez haja algumas armadilhas.
 
mytarmailS #:
Você é quem deve lidar com seus tópicos, não outra pessoa.....
Quando o assunto chega à sua cabeça, é um processo...

Pense nisso.

Eu resolvo problemas em MQL5, e estávamos falando sobre R.

Um fato é um fato - você diz algo sem pensar e depois vai para os arbustos.

 
mytarmailS #:

O que o está impedindo de escrever sua DIVERSAÇÃO?

Bem, ainda não consegui descobrir como implementar a maximização de lucros no mesmo busting, por exemplo.

Estou fazendo algo, é claro, mas gostaria de ouvir outras opiniões informativas sobre o assunto.

 
Aleksey Nikolayev #:

Bem, ainda não consegui descobrir como implementar a maximização do lucro no mesmo busting, por exemplo.

Estou fazendo algo, é claro, mas gostaria de ouvir outras opiniões informativas sobre o assunto.

A precisão funciona bem com classes equilibradas. Tentei todas as métricas padrão, quase nenhuma diferença nos resultados. A maximização do lucro é implementada por meio da marcação com negociações maximamente lucrativas, não é?)
 
СанСаныч Фоменко #:

Toda a sua ideia de separar as "regras boas" das regras ruins" é completamente sem saída, metodologicamente sem saída.

De alguma forma, você acha que as regras "boas" (árvores) são realmente "boas".

E não se trata apenas da imprecisão do futuro delas, mas do fato de que não há regras que possam ser consideradas de acordo com algum critério. Há regras que produzem uma VARIABILIDADE de "bondade" que muda conforme a janela se move, e é bem possível que essa regra passe de "boa" para "ruim" conforme a janela se move. Essa variabilidade é determinada por um valor que divide a probabilidade de previsão em classes.

Normalmente, nos algoritmos de MO, a divisão em classes é feita dividindo-se a probabilidade de previsão da classe pela metade, mas isso é totalmente incorreto. Considero o valor da divisão em classes - nunca é 0,5: esse valor varia e depende do preditor específico.

Agora, de volta às suas árvores "boas".

Se você selecionou árvores cuja "bondade" está próxima do limite, isso muda. É por isso que argumentei acima que suas árvores "boas" selecionadas podem facilmente se tornar árvores ruins.


É um beco sem saída.

Você mesmo faz hipóteses sobre o que eu acho que penso e as contradiz. Tente fazer perguntas no início.

Sem saída ou não, eu mostrei resultados reais. Mostre o mesmo com uma floresta em que 50% das folhas classificam 3 classes de forma lucrativa, dois anos após o treinamento. Pelo que me lembro, você tem um conceito de retreinamento regular de modelos, quase uma vez por semana.

Não preciso explicar sobre o desvio - criei um tópico separado no fórum, onde estão ocorrendo tentativas de resolver o problema - se quiser compartilhar ideias, participe.

Portanto, o método é promissor, mas há algo a ser aprimorado e desenvolvido.

 
Aleksey Nikolayev #:

Bem, ainda não consegui descobrir como implementar a maximização do lucro no mesmo busting, por exemplo.

Estou fazendo algo, é claro, mas gostaria de ouvir outras opiniões informativas sobre o assunto.

Bem, mostrei a você como treinar o forrest na maximização de lucros.

Trata-se de um simples aprendizado sem gradiente por meio de uma função de adequação, essencialmente RL.

Coloquei o código aqui, mas esse método não é muito eficaz para tarefas grandes.


Para tarefas grandes, precisamos converter o aprendizado sem gradiente em aprendizado com gradiente, ou seja, em um mergulho típico regular de RL.

Veja a primeira metade deste vídeo , que explica como treiná-lo.

Há um exemplo com neurônicos, mas não é importante se é um impulso ou outra coisa.

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai