Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3020
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
A precisão funciona bem com classes equilibradas. Tentei todas as métricas padrão, quase nenhuma diferença nos resultados. A maximização do lucro é implementada por meio da marcação com negociações maximamente lucrativas, não?)
1) os custos de negociação não são levados em conta na classificação; a marca da classe pode mostrar que é necessário vender, mas pode ser economicamente mais lucrativo continuar comprando,
A maximização do lucro leva isso em consideração.
2) o mesmo ocorre com a volatilidade.
3) não está claro como implementar os três estados: comprar, vender, não fazer nada, não no contexto das três classes, mas apenas sobre negociação.
4) não está claro como gerenciar stops/teaks via MO por meio da classificação
.....
..
..
A precisão funciona bem com classes equilibradas. Tentei todas as métricas padrão, quase nenhuma diferença nos resultados.
Ainda assim, são valores diferentes. Vamos supor, para simplificar, que take profit = stop loss = 1 e spread = 0. Em cada negociação, entramos ou não - para simplificar, o sistema é apenas para compras (para vendas, use um modelo diferente).
Precisão = (Verdadeiros positivos + Verdadeiros negativos)/ (Verdadeiros positivos + Verdadeiros negativos + Falsos positivos + Falsos negativos)
Profit_total = Verdadeiros positivos - Falsos positivos
A precisão parece se adequar aos requisitos do método de divisão na árvore, mas o lucro parece não se adequar.
A maximização do lucro é implementada por meio de marcação com negociações maximamente lucrativas, não é?)
Para simplificar, todas as negociações dão o mesmo lucro ou perda (1 ou -1)
1) os custos comerciais não são levados em conta na classificação; a marca de classe pode mostrar que é necessário prolongar, mas pode ser que seja economicamente mais lucrativo continuar comprando,
a maximização do lucro leva isso em consideração.
2) o mesmo ocorre com a volatilidade
3) não está claro como realizar os três estados comprar, vender, não fazer nada, não no contexto das três classes, mas especificamente sobre negociação
4) não está claro como gerenciar stops/teaks via MO por meio da classificação
.....
..
..
Ainda assim, esses valores são diferentes. Vamos supor, para simplificar, que sempre tenhamos take profit = stop loss = 1 e spread = 0. Em cada negociação, entramos ou não - para simplificar, o sistema é apenas para compras (para vendas, use um modelo diferente).
Precisão = (Verdadeiros positivos + Verdadeiros negativos)/ (Verdadeiros positivos + Verdadeiros negativos + Falsos positivos + Falsos negativos)
Profit_total = Verdadeiros positivos - Falsos positivos
A precisão parece se adequar aos requisitos do método de divisão na árvore, mas o lucro parece não se adequar.
Para simplificar, todas as negociações dão o mesmo lucro ou perda (1 ou -1)
Você já tentou essa abordagem ? (procure a seção Interpretação do modelo mais ou menos na metade da página)
A ordem dessa marcação é aproximadamente a seguinte: você realiza negociações lucrativas com um passo mínimo, em diferentes direções, dependendo das flutuações. Você passa por elas, combinando as unidirecionais em uma só e contando o número de pips, levando em conta os custos. Se for mais de dois, você os combina em um só, caso contrário, deixa os curtos.
1) Mesmo que funcione, acontece que, para cada tarefa, você precisa inventar um algoritmo de muleta para implementá-la como um alvo pronto?
Não é mais fácil escrever um FF e simplesmente dizer que o AMO é bom/ruim e que ele será bom para qualquer tarefa, uma solução universal...?
2) bom alvo != AMO bem treinado para esse alvo.
O alvo pode ser bom, mas o algoritmo não pode ser treinado para ele, portanto, não é o alvo que deve ser avaliado, mas o AMO treinado.
E você percebeu isso quando eu estava falando sobre FF, mas vejo que já se esqueceu disso
1) Mesmo que funcione, acontece que, para cada tarefa, é necessário inventar algum algoritmo de apoio para implementá-la como um alvo pronto?
Não seria mais fácil escrever um FF e dizer apenas AMO - bom/ruim, e ele será bom para qualquer tarefa, solução universal...?
2) bom alvo != AMO bem treinado para esse alvo.
O alvo pode ser bom, mas o algoritmo não pode ser treinado para ele, portanto, não é o alvo que deve ser avaliado, mas o AMO treinado.
E você percebeu isso quando eu estava falando sobre FF, mas vejo que se esqueceu.
Eu entendo, você não percebe que o FF é colocado no conjunto de dados. Você está confundindo warm (quente) e soft (suave), está fazendo um trabalho extra.
Se tudo fosse como você diz, não haveria RL...
E, em geral, é bom que cada um faça do seu jeito, mais opiniões - espaço de pesquisa mais rico....
Eu não faço mais isso, já passei dessa fase...
Se fosse como você diz, não haveria RL em primeiro lugar.