Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2813

 
mytarmailS #:
Se eu quiser penalizar um agente por negócios não lucrativos.
O objetivo é "negociar o que você quiser, mas sem perder negociações, e estar no mercado".

Como você descreveria isso com tags?
Uma série de marcas sem perdas no histórico, não? ) Marque-as
O Rl trata de encontrar o caminho ideal, se preferir, ou otimização. Você pode fazer isso sozinho ou por meio dele. Não se trata de encontrar alguns padrões super-duper por aí.

Leia Sutton, Barto, "reinforcement learning", está em russo. Vai de primitivos a todo o resto. Então você chegará ao DQN

Lá você encontrará analogias com otimização genética e programação, pelo que me lembro.
 
Maxim Dmitrievsky #:
Estados ou ações do agente. Sugiro que você passe alguns meses lendo livros para entender o que escreveu e chegue às mesmas conclusões: sem a reação do ambiente às ações do agente, não há nada a ser otimizado, isso é feito de uma só vez.

Há estados do ambiente, estados do agente, matrizes de transições (políticas) do agente de um estado para outro, levando em conta as mudanças no ambiente. Seu ambiente é estático, ele não muda devido às ações do agente. Ou seja, você só precisa definir a matriz das ações do agente em um ambiente estático, ou seja, os alvos. A marcação dos alvos é feita em uma única passagem.
Ainda não sei como descrever o estado da linha manualmente.))))))
 
Valeriy Yastremskiy #:
Ainda não consegui descrever o estado da linha manualmente. ))))))
Fútil
 
Maxim Dmitrievsky #:
Fútil.
Não há argumentos para isso, mas é fascinante)))))
 
Valeriy Yastremskiy #:
Não há discussão, mas é fascinante)))))
Há dois estados: mudar os incrementos médios para cima ou para baixo
 
Ninguém viu minha data marcada?
 
Valeriy Yastremskiy #:
Ainda estou perplexo com a descrição manual do estado de uma série.))))))

Recentemente, encontrei um vídeo que explicava a abordagem markoviana para a transição de estados.
Não estou dizendo que esses estados devam ser usados.
Apenas me pareceu que você pode aplicar esse conceito a qualquer estado que julgar necessário.
Talvez isso lhe dê outras ideias.



Maxim, não zombe de mim por ser hindu novamente ))
Não conheci nenhum outro )

 
Roman #:

Recentemente, encontrei um vídeo que explicava a abordagem markoviana para a transição de estados.
Não estou dizendo que esses estados específicos devam ser usados.
Apenas me pareceu que você pode aplicar esse conceito a qualquer estado que achar adequado.
Talvez isso lhe dê outras ideias.



Maxim, não faça piada com o fato de ser hindu novamente ))
Não encontrei nenhuma outra )

Você também pode encontrar artigos sobre segmentação de séries temporais. Você pode substituir o clustering por clustering. Provavelmente faz sentido treinar modelos diferentes para cada um dos estados, pois haverá características diferentes. Basicamente, é a mudança de incrementos médios, em cuja mudança os modelos se desfazem.
 
Maxim Dmitrievsky #:
Ele pode ser usado para segmentação. Você pode substituir o clustering.
Não é possível, é diferente.

O Hmm prevê em qual cluster você está agora, o Clustering mostra em qual cluster você estava, post facto.
Em termos simples.
 
mytarmailS #:
Não é possível, é diferente.

O Hmm prevê em qual cluster você está agora, o Clustering mostra em qual cluster você estava, post factum.
Em poucas palavras.
E se você pensar sobre isso.