Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3049
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
O conceito de RL não é redundante para tarefas de negociação? Temos a influência do ambiente sobre o agente, mas existe uma influência do agente sobre o ambiente? É possível introduzir essa segunda influência artificialmente, mas isso faz sentido?
Duas (ou três) ideias do artigo não são supérfluas para nós: a função de perda deve refletir exatamente o que precisamos e deve ser suave (e monotônica). No nosso caso, ela deve ser o lucro e deve depender de forma suave e monotônica dos parâmetros do modelo.
A suavidade de algum análogo do lucro, provavelmente, pode ser obtida de alguma forma (por exemplo, por algo como suavização de kernel). Mas duvido muito da monotonicidade.
A base do resultado financeiro da negociação é o movimento do preço - um processo aleatório não estacionário.
Estamos tentando transformar um processo aleatório não estacionário em um processo suave e monotônico por meio de alguns truques? Talvez estejamos caminhando a passos largos? Especialmente se levarmos em conta que é extremamente difícil obter um erro de classificação inferior a 20%(!) fora do conjunto de treinamento. Talvez devêssemos começar trabalhando para reduzir o erro de classificação?
Leia o artigo.
Qual é a utilidade desse artigo para nós?
Ele é completamente duvidoso.
E o motivo é o seguinte.
Não me lembro de nenhuma publicação sobre IA (MO) que preveja o futuro. Eles ensinam um modelo a escrever letras manuscritas. Depois, tentam reconhecer essas letras manuscritas. Mas o modelo PRINCIPALMENTE não é ensinado a prever qual letra será escrita em seguida.
Esse é o problema que temos.
Estamos tentando usar o MO (o mesmo trabalho que fizemos com as combinações de velas) para encontrar alguns padrões nos preditores que darão a previsão correta. Mas não há garantia de que os padrões encontrados darão previsões corretas no futuro. Os padrões "certos" darão um erro e os padrões "errados" farão a previsão correta. O motivo está nos próprios algoritmos de classificação, que fornecem a VERABILIDADE de uma classe, não seu valor. Usamos a regularização mais primitiva de 0,5 para dividir em classes. E se durante o treinamento a probabilidade de um padrão "correto" = 0,5000001, por que consideramos essa probabilidade como o valor da classe?
Para fugir disso, começamos a cultivar uma horta, mas os valores dos preditores, entre os quais procuramos padrões, NÃO são estacionários ou pseudoestacionários e têm uma relação remota com o preço!
Temos a influência do ambiente sobre o agente, mas existe uma influência do agente sobre o ambiente? Provavelmente, é possível introduzir essa segunda influência artificialmente, mas isso faz sentido?
Tudo depende da tarefa em questão.
Se prevermos um alvo pronto, como a grande maioria faz, não teremos influência sobre o ambiente e não haverá necessidade de RL.
Mas se, por exemplo, a tarefa de gerenciamento de posições, paradas, retiradas...
O gerenciamento de ativos é o ambiente que nós (agente) gerenciamos.
O agente decide colocar uma ordem ou não colocar uma ordem.
a que preço,
e quando retirá-la ou movê-la,
e o que ele fará quando a perda atual na posição atual exceder n pips,
e o que ele fará se tiver cinco perdas consecutivas?
Como você pode ver, esse é um nível completamente diferente da tarefa, com muitos estados (saídas), e não um primitivo para cima/para baixo na classificação
Para simplificar ainda mais - não podemos gerenciar o mercado, mas podemos gerenciar a posição e o risco, porque podemos!
A suavidade de algum análogo do lucro, provavelmente, pode ser obtida de alguma forma (por exemplo, por algo como a suavização do kernel). Mas duvido muito da monotonicidade.
Eu realmente não entendo o que significa "suavidade" e por que "suavidade" é necessária....
Talvez possamos usar a otimização multicritério para encontrar a melhor solução para isso.
Tudo depende da tarefa em questão.
Se prevermos um alvo pronto, como a grande maioria das pessoas faz, não teremos influência sobre o ambiente e não haverá necessidade da própria RL....
Mas se, por exemplo, a tarefa de gerenciamento de posição, paradas, retiradas ...
O gerenciamento de ativos é o ambiente, que nós (o agente) gerenciamos...
O agente decide colocar uma ordem ou não colocar uma ordem.
a que preço,
e quando retirá-la ou movimentá-la,
e o que ele fará quando a perda atual na posição atual exceder n pontos,
e o que ele fará quando tiver cinco perdas consecutivas...
Veja bem, esse é um nível completamente diferente da tarefa, com muitos estados (saídas), e não uma classificação primitiva para cima/para baixo
Para simplificar ainda mais - não podemos gerenciar o mercado, mas podemos gerenciar a posição e o risco, sim!
Eu realmente não entendo o que significa "suavidade" e por que você precisa dela....
Talvez possamos aplicar a otimização multicritério à pesquisa.
É possível que um agente faça uma média.
A base do resultado financeiro da negociação é o movimento do preço - um processo aleatório não estacionário.
Estamos tentando transformar um processo aleatório não estacionário em um processo suave e monotônico por meio de alguns truques? Talvez estejamos caminhando a passos largos? Especialmente se levarmos em conta que é extremamente difícil obter um erro de classificação inferior a 20%(!) fora do conjunto de treinamento. Talvez devêssemos começar trabalhando para reduzir o erro de classificação?
Eu estava falando sobre as propriedades da função de perda minimizada pelo treinamento do modelo. Mais precisamente, sobre sua forma ideal.
Eu realmente não entendo o que é necessário para a suavidade e por que a suavidade é necessária.
São os princípios básicos da otimização. A suavidade possibilita a otimização por meio de um gradiente. Caso contrário, só restarão os algoritmos de força bruta.
São os princípios básicos da otimização
Sim, eu sei disso, mas recentemente eles estavam falando sobre a suavidade da curva de capital em si, então eu realmente não entrei nessas discussões, por isso estou perguntando o que você quer dizer.
Fora do tópico.
Uma das melhores ofertas de todos os tempos.
ouro
risco/recompensa 1 em 24
Fora do tópico...
uma das melhores ofertas de todos os tempos.
ouro
risco/recompensa 1 em 24