Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 427

 
Mihail Marchukajtes:

En principio no importa. El poder de predicción es nulo en ....

Es como mirar el patrimonio y dividir el beneficio entre la reducción.

Y cuanto mejor sea la previsión, mayor será la SR

 
Aliosha:

Entonces, qué tiene que ver la previsión, es como mirar la renta variable con los ojos y dividir el beneficio entre el drawdown, se trata de SR

Y cuanto mejor sea la previsión, mayor será la SR.


Y en este caso. Pues entonces sí. De acuerdo completamente....

 
SanSanych Fomenko:

Puede decirme, usted escribió aquí https://www.mql5.com/ru/blogs/post/160258 que RF es el mejor clasificador entre los propuestos, estoy de acuerdo con eso. Y en cuanto al diplerning de 3ª generación (con autocodificadores), ¿has hecho alguna prueba comparativa?

Нужны ли нам сотни классификаторов для решения проблем классификации реального мира?
  • 2014.11.13
  • СанСаныч Фоменко
  • www.mql5.com
В статье оценивается доступные сегодня 179 классификаторов, принадлежащих к 17 семействам (дискриминантный анализ, Байес, нейронные сети, машины векторов поддержки SVM , деревья решений, основанные на...
 
Aliosha:



Sobre el GARCH por lo que sé es un modelo lineal para predecir la volatilidad, no predice la dirección del mercado, ¿o me equivoco?

GARCH es un modelo de volatilidad, que predice la dirección y el tamaño de la siguiente vela. El plazo puede ser diferente: M5, M30, D1, cualquiera. Pero, por lo general, se trata de una TF poco profunda hasta el comercio de alta frecuencia.

Me parece atractivo el GARCH porque para utilizarlo necesito analizar la cotización inicial para tener pruebas de que el GARCH entrenado se comportará igual en la historia y en el futuro.

La idea es luchar contra la no estacionariedad (media variable y desviación variable de la media), que se considera el principal mal para el rendimiento futuro del Asesor Experto.

El modelo en sí tiene tres componentes:

Inicialmente, se calculan los incrementos de precio. A continuación, se escriben fórmulas para este incremento:

1. por el comportamiento de la media

2. por el comportamiento de desviación de la media (volatilidad). Hay un gran número de variantes, incluidas las exponenciales y las de umbral (me refiero a la linealidad del modelo)

3. La ley de distribución de la media.


Si fuera posible elegir "correctamente" los parámetros de todas estas partes, entonces el residuo debería tener una distribución normal, lo cual es una garantía de que el comportamiento del modelo en el futuro será similar al de los datos históricos.


Algo así, a grandes rasgos.

 
Maxim Dmitrievsky:

Puede decirme, usted escribió aquí https://www.mql5.com/ru/blogs/post/160258 que RF es el mejor clasificador entre los propuestos, estoy de acuerdo con eso. Y qué pasa con los diplinking de 3ª generación (con codificadores automáticos), ¿habéis hecho alguna prueba comparativa?

He oído que diplinking es un poco diferente, se trata de la búsqueda automática de características SIMPLES, en estructuras jerárquicas, como imágenes o texto, donde las esquinas y las líneas de los cuales son figuras simples con formas más complejas y así sucesivamente. En cuanto a las series temporales, no es lo mismo. Así que si la red neuronal de convolución profunda encuentra fríamente gatos y caras en las fotos, no significa que vaya a predecir fríamente el mercado, además todo lo "profundo" es una enorme molestia para los usuarios, es una enorme molestia incluso para los que recrearon toda la red desde cero en C++ durante 10 veces, muchos parámetros son muy inestables, los resultados son aleatorios. Tienes que lidiar con ello durante muchos años. Pero no es mi IMHO, nunca lo he probado y probablemente no lo haré.

 
Aliosha:

No es un mal resultado, es fantástico, estoy seguro de que ni siquiera Renaissance tiene algo así con sus terabytes de datos al día. Mira el live-score en numer.ai y piensa por qué ellos tienen al menos un 45% de tasa de error(logloss~0,69) y tú un 30%.

Pero lo que dices es cierto, has creado tu función de objetivo sintético, que está funcionalmente ligado a las características de una manera inteligente (obviamente no es obvio para ti) y tienes una exploración tan agradable en Lorn y la prueba y todo se ve bien ... Pero ¿por qué no eres un multimillonario todavía, aunque fácilmente podría convertirse en uno en alrededor de un año si tenía 30% de error en la predicción de color de la vela siguiente, porque usted predice no futuro, pero el pasado mezclado con el futuro a través de indicador. Trata de predecir un futuro retornado puro y todo caerá en su lugar.

Has dicho mucho señor, pero no has dicho nada de fondo, mientras que se te ofreció inmediatamente mostrar, no gritar a todo el mundo lo que está mal en ZZ y lo que hace falta.

 
Lista de libros, vídeos y cursos sobre aprendizaje automático y matemáticas, todo en ruso. Una gran selección de alta calidad. Casi todos los pdf de los libros son googleables.
https://ru.stackoverflow.com/a/683632/1084
Книги и учебные ресурсы по машинному обучению
Книги и учебные ресурсы по машинному обучению
  • ru.stackoverflow.com
Для тех, кто хочет на русском языке почитать: Хараламбос Марманис, Дмитрий Бабенко Алгоритмы интеллектуального Интернета. Передовые методики сбора, анализа и обработки данных источник К. В. Воронцов. Математические методы обучения по прецедентам (теория обучения машин) источник Мерков А.Б. Введение в методы статистического обучения...
 
Zhenya:

He oído que diplanning es un poco diferente, se trata de la búsqueda automática de características SIMPLES, en estructuras jerárquicas como imágenes o texto, donde los bordes son esquinas y líneas con formas simples de las cuales son más complejas y así sucesivamente. En cuanto a las series temporales, no es lo mismo. Así que si la red neuronal de convolución profunda encuentra fríamente gatos y caras en las fotos, no significa que vaya a predecir fríamente el mercado, además todo lo "profundo" es una enorme molestia para los usuarios, es una enorme molestia incluso para los que recrearon toda la red desde cero en C++ durante 10 veces, muchos parámetros son muy inestables, los resultados son aleatorios. Tienes que lidiar con ello durante muchos años. Pero no es mi IMHO, nunca lo he probado y probablemente nunca lo haré.

No es tan malo como lo pintan.

No es muy difícil, empieza con estos pocos artículos(1, 2, 3, 4). No funcionará todo a la vez y no tendrá sentido, pero será útil.

Buena suerte

 
Gianni:

He oído que diplanning es un poco diferente, se trata de la búsqueda automática de características SIMPLES, en estructuras jerárquicas como imágenes o texto, donde los bordes son esquinas y líneas con formas simples de las cuales son más complejas y así sucesivamente. En cuanto a las series temporales, no es lo mismo. Así que si la red neuronal de convolución profunda encuentra fríamente gatos y caras en las fotos, no significa que vaya a predecir fríamente el mercado, además todo lo "profundo" es una enorme molestia para los usuarios, es una enorme molestia incluso para aquellos que recrearon toda la red desde cero en C++ durante 10 veces, muchos parámetros son muy inestables, los resultados son aleatorios. Tienes que lidiar con ello durante muchos años. Pero no es mi IMHO, nunca lo he probado y probablemente nunca lo haré.

Ya veo, creo que en la práctica nadie de aquí y no comparó :) buscaré información, que al final no hay que engañarse si resulta que el diplerning no da ventajas sobre las maderas. Y como la parte que lo compone es un MLP, es muy posible que no lo haga...

Por cierto, cualquier cosa con más de 2 capas se llama diplerning, el MLP con 2 capas ocultas también es diplerning. Me refería a las redes profundas, que Vladimir describe en el artículo del enlace anterior.

Aunque dicen que los predictores son lo más importante, ya que los modelos funcionan igual... pero esto es teoría, en la práctica resulta que la selección del modelo también es muy importante, por ejemplo un compromiso entre velocidad y calidad, porque el NS suele ser largo...

En la práctica, la mezcla P-MT5 a través de una libu es demasiado lenta y no es conveniente, necesito un nativo sin ningún software de izquierda o conexión directa al servidor P desde MT5, pero un nativo es mejor. Quiero reescribir la red neuronal que necesito en mql con C++ y ya está.

ah, se me olvidó añadir IMHO

 

Ejem... ejem... He estado reflexionando, reflexionando...

Hay un montón de modelos, desde los clásicos como ARMA/GARCH hasta avances completos como CNN/LSTM, en medio del favorito de todos MLP\RF\XGB y así sucesivamente. Pero ¿cómo unificar todo? Para que, por ejemplo, podríamos intercambiar / vender modelos entrenados en un formato universal, legible en cualquier lugar sin bibliotecas especiales y la formación, que trató de pasar a alguien algo no trivial modelo probablemente entender lo que quiero decir))))

Y entonces me di cuenta de que el número.ai - ¡resolvió este problema! Lo que en realidad les envían no son sólo predicciones, sino un modelo tonto ya hecho, muestreado con suficiente precisión. En realidad debería ser así, si no, cómo se pueden conseguir fics del futuro de antemano para darles una respuesta, los fics son en tiempo real, no se pueden conocer de antemano. Pero si llenamos el espacio de N dimensiones con una rejilla de puntos, entonces un nuevo punto, el más cercano de la rejilla, que se buscan al instante como un elemento de la matriz por el índice. Y cualquier modelo sencillo y complicado puede convertirse en un modelo de este tipo, fácilmente transferible y utilizable sin revelar sus secretos.

¡Respeto a numer.ai, la idea es super!

Propongo pensar en cómo se puede utilizar en nuestra miserable comunidad)))