Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 573

 
Yuriy Asaulenko:
Es decir, como el impulso. Por lo tanto, late por la cola.

La razón es no utilizar las cotizaciones en bruto para los problemas de regresión, porque los modelos no pueden extrapolar y es necesario predecir, por ejemplo, las lecturas de los osciladores en los precios no cotizados.

 
Dmitry Fedorchenko:

Torturado durante seis meses con diferentes predictores, incluyendo incrementos de cualquier cosa a cualquier cosa, el número de predictores. Y he utilizado diferentes modelos. Y RF, y SVM, y MLP... Incluso probé los tiempos senior y bajé a M1. Lo máximo que pude conseguir en la muestra de validación fue un 53% de precisión, y un 100,0% en la muestra de entrenamiento. Esto no es suficiente para el comercio. Necesito al menos un 57% de precisión para ser rentable. O mis manos están torcidas o algo más. ¿Alguien ha conseguido mejores resultados? Sólo tengo curiosidad.

En realidad, un 50% de predicciones correctas no está tan mal para el trading. Por ejemplo, la relación beneficio/pérdida = 2/1. Depende de cómo lo hagas).
 
Sergey:

Hola.


Un consejo, por favor. ¿Cómo integrar en metatrader un modelo ya preparado (el modelo fue creado en python usando xgboost)?

La única opción que pude buscar en Google es guardar el modelo en un archivo de texto en python y luego cargarlo en mql usando R.

¿Hay otras opciones? ¿Tiene algún ejemplo de aplicación?


Gracias de antemano.


Elegí las tuberías con nombre como la solución más sencilla y versátil. Es decir, ahora el mt y el script de python se comunican entre sí como un cliente-servidor. Envío de solicitudes/respuestas entre sí.

 
Maxim Dmitrievsky:

La cuestión es no tomar las cotizaciones en bruto para los problemas de regresión, porque los modelos no pueden extrapolar y hay que predecir, por ejemplo, las lecturas de los osciladores en las no cotizaciones.

Lo entiendo, pero no se puede predecir nada con el Momentum porque la llegada de datos nuevos y la salida de datos antiguos tienen pesos iguales y eso con un desfase de -50. Es decir, no sabemos a ciencia cierta qué ha cambiado, de dónde surgió el Delta, si la cola ha caído o la nariz ha subido...
 
Maxim Dmitrievsky:

Es posible volver a convertirlo en cotizaciones, aquí se trata de no tomar cotizaciones desnudas para las tareas de regresión, porque los modelos no pueden extrapolar y es necesario predecir, por ejemplo, las lecturas de los osciladores en las no cotizaciones. o simplemente los incrementos.


+ Acabo de comprobar la adecuación del modelo, de lo contrario SanSanych sigue llamando a un traqueteo.

Está claro que hay un error, pero el tipo general de los incrementos sigue siendo el mismo. Y esto no es un error del modelo en sí, sino porque está construido en base a predictores y ahí también hay un error.


 
Maxim Dmitrievsky:

+ acaba de comprobar la adecuación del modelo, porque SanSanych sigue llamando a la matraca

Es obvio que hay un error, pero se conserva la forma general de los incrementos. Y no es un error del modelo en sí, sino porque se construye utilizando predictores y hay un error propio.

Bueno, es comprensible.

Si no soy un experto en RF, pero NS es genial sólo para las citas, pero es mejor pronormalizarlas. Por cierto, memoriza todo muy bien.

Es decir, quizá deba retocar algo en Rusia (la opinión de un experto)).

 
Yuriy Asaulenko:

Bueno, es comprensible.

No estoy familiarizado con RF, pero NS está bien sólo comiendo comillas, sólo es deseable pronormalizarlas.


Es muy importante la forma de normalizar... y el NS también irá mal si supera los límites de muestreo, te envié un enlace a un artículo... con la RF es lo mismo en esencia pero aún peor, sólo va a un costante. Sólo es relevante para las tareas de regresión, mientras que la clasificación no importa realmente.

Y también es muy útil normalizar la muestra a algún signo, por ejemplo eliminar el último ruido... es mucho más fácil y rápido aprenderlo de una vez. O puede establecer deliberadamente un umbral alto de normalización y rangos de filtrado.

 
Maxim Dmitrievsky:

Es muy importante la forma de normalizar... y el NS también irá mal si sobrepasa los límites de muestreo, te envié un enlace a un artículo... es esencialmente lo mismo con la RF pero aún peor, sólo va a un costante. Sólo es relevante para las tareas de regresión, mientras que la clasificación no importa realmente.

No superará el rango si lo racionas adecuadamente, no a lo tonto).

Por cierto Maxim, ¿realmente crees que es posible una previsión estable en el mercado?

 
Yuriy Asaulenko:

No superará el rango si lo raciona adecuadamente, no de forma estúpida).

Por cierto, Maxim, ¿realmente crees que es posible algún tipo de previsión estable en el mercado?


en ciertos mercados sí, casi seguro... o en ciertas fases del mercado... es posible, pero no siempre, se necesitan buenos filtros como mínimo

A mi modo de ver, si te ajustas a un determinado ciclo de mercado a largo plazo... que existe a priori. Pero la cuestión es cómo hacerlo automáticamente.

 
Maxim Dmitrievsky:

en ciertos mercados sí, casi seguro... o en ciertas fases del mercado... quizás, pero no siempre, se necesitan buenos filtros al menos

Filtros de nuevo. ¿Y quién hará los filtros? ¿Y cuáles son esas fases? ¿Cómo se detectan? -¿Detectarlas algorítmicamente? No es un asunto de zares.

Yo creo tanto: dejarlo en DM - que él mismo lo revele todo.