Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2812
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Isso foi discutido aqui há mais de um ano, quando eu estava escrevendo algoritmos de RL.
Ainda não quero voltar atrás, e nem eu.Isso ocorre quando há muitos estados de agente, por exemplo, em jogos. Você tem apenas 2-3 estados de compra/venda etc.
Não, é tão primitivo, caso contrário não haveria essa direção.
O estado não é uma compra/venda, a compra/venda é uma ação, e o estado é, grosso modo, o número do cluster do ambiente atual, e cada cluster de estado tem sua própria ação...
Mas aação não precisaser primitiva, como comprar/vender, ela pode ser o raciocínio do agente sobre o futuro, por exemplo....
Por exemplo, se eu comprar agora a [i] e, no candle de negociação [i+1], o preço cairá, mas não abaixo de um determinado preço, esperarei pelo próximo candle [i+2], mas, se o preço cair ainda mais, reverterei, caso contrário, continuarei comprando [i...20].
Esses são raciocínios não triviais sobre o futuro e levam à descoberta da poziya consciente....
Mas há uma infinidade dessas combinações de opções de raciocínio, de modo que não precisamos passar por todas elas, treinamos uma função Q, ou seja, o agente leva para o raciocínio somente as opções que têm um bom valor Q ,
O neurônio ou matriz Q é treinado previamente...
É assim que eu vejo...
O esquema de solução é simples.
)))) sim, claro...
Tenho medo daqueles que dizem "é simples".
Não, é tão primitivo, caso contrário, não teria essa direção...
O estado não é um by\sel, by\sel é uma ação, e o estado é, grosso modo, o número do cluster do ambiente atual, e cada cluster de estado tem sua própria ação...
Mas aação não precisaser primitiva como um byte, pode ser o pensamento de um agente sobre o futuro, por exemplo....
Por exemplo, se eu comprar a [i] agora e, no candle de negociação [i+1], o preço cairá, mas não abaixo de um determinado preço, esperarei pelo próximo candle [i+2], mas se o preço cair ainda mais, reverterei, caso contrário, manterei a compra [i...20].
Esses são raciocínios não triviais sobre o futuro e levam à descoberta da posição realizada....
Mas há uma infinidade dessas combinações de opções de raciocínio, de modo que não precisamos passar por todas elas, treinamos a função Q, ou seja, o agente usa para raciocínio somente as opções que têm um bom valor Q ,
O neurônio ou matriz Q é treinado previamente...
É assim que eu vejo...
Concordo, comprar, vender e não negociar não é um estado. Há um grande número de estados. ))))))
Concordo que comprar, vender e não negociar não são estados. Há um grande número de estados. )))))
Não há muitos estados (se for um cluster).
Há um grande número de opções para raciocinar sobre ações futuras.
Mas o raciocínio é necessário para encontrar as ações mais corretas em cada estado e, além disso, elas devem ser revisadas a cada candle.
Não, é tão primitivo, caso contrário, não teria essa direção...
O estado não é um by\sel, by\sel é uma ação, e o estado é, grosso modo, o número do cluster do ambiente atual, e cada cluster de estado tem sua própria ação...
Mas aação não precisaser primitiva como um byte, pode ser o pensamento de um agente sobre o futuro, por exemplo....
Por exemplo, se eu comprar a [i] agora e, no candle de negociação [i+1], o preço cairá, mas não abaixo de um determinado preço, esperarei pelo próximo candle [i+2], mas se o preço cair ainda mais, reverterei, caso contrário, manterei a compra [i...20].
Esses são raciocínios não triviais sobre o futuro e levam à descoberta da posição realizada....
Mas há uma infinidade dessas combinações de opções de raciocínio, de modo que não precisamos passar por todas elas, treinamos a função Q, ou seja, o agente usa para raciocínio somente as opções que têm um bom valor Q ,
O neurônio ou matriz Q é treinado previamente...
É assim que eu vejo...
Quando você começa a ver as coisas corretamente, o fator surpresa desaparece.
Você está descrevendo a política de um agente, uma abordagem multifacetada. Eu escrevi tudo sobre isso. Estou escrevendo em linguagem de nerd para fazer sentido e me esqueci.
Exatamente, é tão primitivo.
Há uma aqui que estava espumando pela boca sobre agentes antes de ser banida).
Concordo que comprar, vender e não negociar não são estados. Há uma série de estados. ))))
Estados ou ações do agente. Sugiro que você passe alguns meses lendo livros para entender o que escreveu e chegue às mesmas conclusões: sem a reação do ambiente às ações do agente, não há nada a ser otimizado, isso é feito de uma só vez.