Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2571
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿He entendido bien lo que está haciendo?:
1) Obtenemos 1 árbol.
2) cada nodo puede dar hasta 10 ramas (en la imagen encontrada es menos, supongamos 10 ramas), cada rama es generada por 1 quantum (un quantum es un pedazo de predictor en 10%: ya sea percentil o 10% en amplitud, dependiendo del método de cuantificación que se haya utilizado).
3) después de la primera división, encontramos 3 cuantos, que posteriormente conducen a una hoja exitosa
4) las divisiones subsiguientes encuentran algunas divisiones/cuantos más buenos que conducen a hojas exitosas
5) memorizamos los cuantos exitosos antes de las hojas exitosas
6) construimos un nuevo árbol, que utiliza como predictores sólo los cuantos que seleccionamos
Para hacerlo con el mismo método que cuantificamos el primer árbol, cuantificar los predictores con nuestro script, obtenemos 1000 predictores de 100, ya son binarios 0 o 1. Si el valor del predictor está en este rango, es = 1, si no, es = 0.
Como sólo seleccionamos caminos/cuantos exitosos, todos los valores de los cuantos seleccionados = 1. Si todos los predictores = 1, el nuevo árbol no puede aprender. La respuesta ya se conoce.
¿O ya no es necesario construir un nuevo árbol? Simplemente, si el valor del predictor cae en un quantum elegido, ¿actuaremos inmediatamente?
Yo no construyo un árbol en la primera etapa, pero si representamos a través de un árbol, deberíamos construir un árbol tal que seleccionara todos los rangos de predictores a la vez, es decir, en cada hoja por separado. A continuación, evaluar cada una de esas hojas, y si se ajusta a los criterios, entonces guardar la cadena de divisiones. Pero, prefiero 3 matrices para el alcance/extracción cuántica - así implementado en el modelo final.
Tal y como está, todo parece correcto, eventualmente construimos el modelo más adelante en estas hojas seleccionadas (cuantos/rangos).
Para el modelo, "1" no significa una respuesta 100% correcta: la tarea del modelo es agregar las respuestas, construir algún tipo de correlación y distribuir las ponderaciones.
Que sea posible sin un modelo depende de cómo se desplace la precisión de la predicción, y a qué desplazamiento puede ser rentable: algunas estrategias llegan a ser rentables incluso con un 35% de entradas correctas. La forma más fácil que he probado es simplemente sumar el número de unos (también los agrupé) y esperar obtener una señal de entrada en el umbral total.
Probablemente, el uso de la delantera o la inclusión del tiempo en los predictores.
Por supuesto, el tiempo está en los predictores, pero revelará una ciclicidad estable, pero no una expectativa de deriva de los predictores.
No los estoy comparando, estoy diciendo que ambos pueden ser "pintados". Y si lo hacen o no, ni tú ni yo lo sabemos con seguridad. Creo que a veces dibujan y a veces no. Y en los momentos en los que no empatan, podemos ganar algo.
Aparte de Oanda y CME , no lo sé. Los demás sólo tienen gráfico de precios y volúmenes de ticks.
¿Excepto oanda y CME?
¡¡¡¡Estás comparando de nuevo!!!!
Con CME tengo volúmenes, con DM tengo sentimiento.
La CME no tiene sentimiento
No hay volumen de DME.
no son lo mismo !!! vuelve a tus cabales, apiádate de mi teclado... POR FAVOR:)
¿Aparte de Oanda y CME?
¡¡¡¡Estás comparando de nuevo!!!!
Con CME tomo los volúmenes, con DM tomo el sentimiento.
La CME no tiene sentimiento.
No hay volumen de DME.
no son lo mismo !!! vuelve a tus cabales, apiádate de mi teclado... POR FAVOR:)
Otra vez. No los estoy comparando, estoy diciendo que ambos pueden ser "dibujados".
Y lo que tienen en común es que son los únicos que se diferencian de todos los demás, que sólo tienen un gráfico de precios y volúmenes de ticks. Estos 2 dan al menos algo más para analizar.
¿Qué otros 8 hay que den más información que todos ellos? Será interesante verlo.
Yo no construyo un árbol en el primer paso, pero si lo representas con un árbol, necesitas construir un árbol que asigne todos los rangos de predictores a la vez, es decir, en cada hoja por separado.Luego evalúa cada una de esas hojas, y si se ajusta a los criterios, entonces guarda la cadena de divisiones. Pero, prefiero 3 matrices para el alcance/extracción cuántica - así implementado en el modelo final.
Como todo parece correcto, acabamos construyendo el modelo sobre estas hojas seleccionadas (cuantos/rangos).
Para el modelo, "1" no significa una respuesta 100% correcta: la tarea del modelo es agregar las respuestas, construir algún tipo de correlación y distribuir las ponderaciones.
Que se pueda hacer sin un modelo depende de cómo se desplace la precisión de la predicción, y a qué desplazamiento puede ser rentable - algunas estrategias llegan a ser rentables incluso con un 35% de entradas correctas. La forma más fácil es simplemente sumar el número de unos (incluso los agrupé) y esperar obtener una señal de entrada en el umbral total.
Bueno, si se hace un árbol, entonces seleccionar sólo las cadenas exitosas y usarlas sólo a ellas es una duplicación del modelo de árbol listo. Sólo hay que utilizar para el comercio aquellas hojas que dan la probabilidad de éxito deseada, por ejemplo, todas las hojas con un 70% de clase de probabilidad. En las hojas con probabilidad < 70% simplemente no se reacciona. Eso me parece análogo a lo que tú estás haciendo.
Pero estás haciendo algo a través de arrays allí... Así que tal vez no sea así.
Por supuesto, hay tiempo en los predictores, pero revelará la ciclicidad sostenida, pero no la expectativa de la deriva de los predictores.
No me he expresado correctamente. Lo que se quería decir es que se añaden pesos dependientes del tiempo a la función de pérdida. Cuanto más cerca esté el final del periodo de aprendizaje, más peso se añade. Las variantes con y sin ponderación darán pérdidas diferentes, si incluso en promedio (sin ponderación) eran iguales. Pero, por supuesto, hay que experimentar.
¿Qué otros 8 hay que den más información que todos ellos? Será interesante verlo.
¿Por qué?
¿Ahora tengo que buscar en Google 10 enlaces para pegarlos aquí para qué?
¿Qué vas a hacer con él?
99,999% seguro que no es nada, sólo una pérdida de tiempo.
Te diré que hay unos 17 choques de D.C. que te dan las posiciones de sus clientes.
Búscalo en Google.
Aquí hay uno que encontré.
el foro es alérgico a algunos enlacesBueno, si haces un árbol, entonces seleccionar sólo las cadenas exitosas y usarlas sólo a ellas es una duplicación del modelo de árbol listo. Basta con utilizar para la negociación aquellas hojas que den la probabilidad de éxito deseada, por ejemplo, todas las hojas con una clase de probabilidad del 70%. En las hojas con probabilidad < 70% simplemente no se reacciona. Eso me parece análogo a lo que tú estás haciendo.
Pero estás haciendo algo a través de arrays allí... así que tal vez no sea análogo.
Tengo tal enfoque, cuando selecciono las hojas del árbol, pero allí utilizan la correlación de diferentes predictores, mientras que aquí estamos hablando de la selección de un segmento de precios de un predictor a través del árbol - tuve la máxima mejora de la precisión en relación con la media del 15% en dicho segmento (rango/cuantía).
No me he expresado correctamente. Lo que se quiere decir es que se añaden pesos dependientes del tiempo a la función de pérdida. Cuanto más cerca esté el final del periodo de entrenamiento, más peso se añadirá. Las variantes con y sin ponderación darán pérdidas diferentes, si bien en promedio (sin ponderación) eran iguales. Pero hay que experimentar, por supuesto.
Creo que al principio es necesario calcular de alguna manera las estadísticas, si tiene sentido, y luego implementar en el proceso de formación.
Por lo tanto, la cuestión sigue siendo cómo hacerlo bien.
Supongamos que tengo 3 secuencias binarias de este tipo con 10 puntos de medición en intervalos de tiempo comparables.
A[]={1,0,0,1,1,1,1,1,0,1};
B[]={1,1,1,1,1,1,1,0,0,1};
C[]={1,1,0,1,1,1,0,1,0,1};
Y por eso quiero entender/trazar cómo cambia la probabilidad de una unidad a medida que aumentan las unidades en una fila.
Entiendo que debo contar el número de secuencias para empezar, pero de nuevo, ¿debo contar las secuencias largas como una sola o debo contarlas por separado, por ejemplo, 1111 dividido en 1,11, 111 y 1111 o es sólo 11?
Y entonces, ¿qué hacer? ¿Cómo evaluar si hay un patrón o una aleatoriedad del proceso?
¿Para qué?
Gracias. Para empezar, echaré un vistazo. Tal vez se me ocurra algo para usar.