Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3020
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
1) los costes comerciales no se tienen en cuenta a través de la clasificación, la marca de clase puede mostrar que es necesario prolongar, pero puede ser para que sea más rentable económicamente seguir comprando,
la maximización del beneficio lo tiene en cuenta.
2) lo mismo con la volatilidad
3) no está claro cómo darse cuenta de los tres estados comprar, vender, no hacer nada, no en el contexto de las tres clases, pero específicamente sobre el comercio
4) no está claro cómo gestionar los stops/teaks mediante MO a través de la clasificación
.....
..
..
Aún así, se trata de valores diferentes. Supongamos por simplicidad que siempre tomar ganancias = stop loss = 1 y la propagación = 0. En cada comercio que, o bien entrar o no - para simplificar, el sistema es sólo para las compras (para las ventas dejar que un modelo diferente).
Exactitud = (Verdaderos positivos + Verdaderos negativos)/ (Verdaderos positivos + Verdaderos negativos + Falsos positivos + Falsos negativos)
Beneficio_total = Verdaderos positivos - Falsos positivos
La exactitud parece ajustarse a los requisitos del método de división en el árbol, pero el beneficio parece no hacerlo.
Para simplificar, todas las operaciones dan el mismo beneficio o pérdida (1 o -1)
¿Ha probado este método ? (busque la sección "Interpretación del modelo" más o menos a la mitad de la página)
El orden de dicho margen es aproximadamente el siguiente: tomas operaciones rentables con un paso mínimo, en diferentes direcciones, dependiendo de las fluctuaciones. Las repasas, combinando las unidireccionales en una y contando el número de pips teniendo en cuenta los costes. Si es más de dos, las combinas en una, si no, dejas las cortas.
1) Aunque funcione, resulta que para cada tarea hay que inventar algún algoritmo muletilla para implementarlo como un objetivo listo?
¿No es más fácil escribir un FF y decir simplemente AMO es bueno/malo, y será bueno para cualquier tarea, solución universal...?
2) buen objetivo = AMO bien entrenado para este objetivo.
El objetivo puede ser bueno, pero el algoritmo no puede ser entrenado para ello, por lo que no es el objetivo el que debe ser evaluado, es el AMO entrenado.
Y te diste cuenta de esto cuando hablaba de FF, pero veo que ya lo has olvidado
1) Aunque funcione, ¿resulta que para cada tarea hay que inventar algún algoritmo muletilla para implementarla como objetivo listo?
¿No sería más fácil escribir un FF y decir simplemente AMO - bueno/malo, y servirá para cualquier tarea, solución universal...?
2) buen objetivo = AMO bien entrenado bajo este objetivo.
El objetivo puede ser bueno, pero el algoritmo no puede ser entrenado para ello, por lo que no es el objetivo el que debe ser evaluado, sino el AMO entrenado.
Y te diste cuenta de esto cuando hablaba de FF, pero veo que lo has olvidado.
Entiendo, no te das cuenta de que el FF se pone en el conjunto de datos. Usted confunde cálido y suave, que está haciendo un trabajo extra.
Si todo fuera como dices, no habría RL....
Y en general, es bueno que cada uno lo haga a su manera, más opiniones - espacio de búsqueda más rico....
Yo ya no lo hago mucho, he superado esa etapa...
Si fuera como dices, no habría RL en primer lugar.
Y no se encuentra en ninguna parte, sólo en papel
Y en general, es bueno que cada uno lo haga a su manera, más opiniones - espacio de búsqueda más rico....