Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 301

 

¡¡¡¡Hola a todos!!!! Finalmente se produjo un milagro y mi artículo fue publicado.

https://www.mql5.com/ru/articles/2773

Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
  • 2017.03.29
  • Mihail Marchukajtes
  • www.mql5.com
В этой статье я расскажу, как с помощью "скрещивания" одной очень известной стратегии и нейронной сети можно успешно заниматься трейдингом. Речь пойдет о стратегии Томаса Демарка "Секвента" с применением системы искусственного интеллекта. Работать будем ТОЛЬКО по первой части стратегии, используя сигналы "Установка" и "Пересечение".
 
Mihail Marchukajtes:

¡¡¡¡Hola a todos!!!! Finalmente se produjo un milagro y mi artículo fue publicado.

https://www.mql5.com/ru/articles/2773


Genial!) Lo leeremos con calma.
 
Mihail Marchukajtes:

¡¡¡¡Hola a todos!!!! Finalmente se produjo un milagro y mi artículo fue publicado.

https://www.mql5.com/ru/articles/2773


fue al artículo, gracias )
 
Andrey Dik:
Sabes que la historia no se repite. Por eso sugieren que se intente lo mismo con datos aleatorios: el resultado no será muy diferente (y quizá incluso mejor que con datos históricos).


Me gustaría señalar que usted yfxsaber están en una rama donde su declaración fue refutada de una manera muy profesional. Consulta los materiales de Burnakov en este hilo y en sus blogs


Aparte de esto, hay una cuestión fundamental que distingue fundamentalmente a ME del patrón que el AT ha formado en nuestras cabezas.

El aprendizaje automático se compone necesariamente de tres partes, que constituyen un conjunto coherente. Estos son:

  • Preparación de datos brutos (datamining) - no presente en la AT
  • búsqueda automática de patrones. Hay muchos algoritmos. En el AT esto se suele hacer manualmente a "ojo de buen cubero".
  • evaluación del resultado de la simulación. En el terminal MT, esta función la desempeña un probador, que sólo puede sustituir marginalmente a las herramientas que existen en el marco con MO.

El paso más importante por su impacto en el resultado final es el primero: la preparación de los datos brutos.

Si se utilizan los tres pasos de forma coherente y entendiendo lo que se está haciendo, personalmente he conseguido reducir el error de predicción de algunas de las variables objetivo por debajo del 30%. He podido reducir el error de predicción por debajo del 40% casi inmediatamente. Si obtienes un 50% al azar significa que no entiendes algo muy importante en MO.

 
SanSanych Fomenko:


Me gustaría señalar que tú yfxsaber estáis en un hilo en el que vuestra afirmación ha sido refutada profesionalmente. Echa un vistazo a los materiales de Burnakov en este hilo y en sus blogs


Aparte de esto, hay una cuestión fundamental que distingue fundamentalmente a ME del patrón que el AT ha formado en nuestras cabezas.

El aprendizaje automático se compone necesariamente de tres partes, que constituyen un conjunto coherente. Estos son:

  • Preparación de datos brutos (datamining) - no presente en la AT
  • búsqueda automática de patrones. Hay muchos algoritmos. En el AT esto se suele hacer manualmente a "ojo de buen cubero".
  • evaluación del resultado de la simulación. En el terminal MT, este papel lo desempeña el probador, que sólo puede sustituir marginalmente a las herramientas que existen en el marco con MO.

El paso más importante por su impacto en el resultado final es el primero: la preparación de los datos brutos.

Si se utilizan los tres pasos de forma coherente y entendiendo lo que se está haciendo, personalmente he conseguido reducir el error de predicción de algunas de las variables objetivo por debajo del 30%. He podido reducir el error de predicción por debajo del 40% casi inmediatamente. Si obtienes un 50% al azar, significa que no entiendes algo muy importante en MO.

Has esquivado magistralmente la pregunta/sugerencia, ¡felicidades! Al leerte, te olvidas de lo que estabas preguntando..... Para "algunas variables objetivo" también he obtenido menos error en una serie aleatoria, para qué. Mis experimentos con los resultados están en algún lugar del 4º foro (es una respuesta a "Mira los materiales de Burnakov").
 
Maxim Dmitrievsky:

Me voy a sumergir en el artículo, gracias)

De todo corazón, hermanos. Su opinión es muy importante para mí. Después de este artículo habrá un tratado sobre la variable de entrada y salida, habrá filosofía por supuesto, bueno, y primos cuando es difícil elegir....
 
SanSanych Fomenko:


Si se utilizan los tres pasos de forma coherente y entendiendo lo que se está haciendo, personalmente he podido reducir el error de predicción de algunas de las variables objetivo por debajo del 30%. He podido reducir el error de predicción por debajo del 40% casi inmediatamente. Si obtienes un 50% al azar, entonces hay algo muy significativo que no entiendes de la MO.

Si te refieres al errorfuera de muestra, con al menos 100k muestras para probar en datos debidamente preparados, entonces los resultados son muy abruptos, "más frescos que los huevos solamente", incluso para datos HFT, en minutos y más es fantástico, o un sobreajuste trivial. En los datos de baja frecuencia, Dios no permita que el 2-3% obtenga una ventaja, lo mismo con numerai.

Es genial cuando predice la dirección de los precios con un segundo de antelación, con una precisión 65-70% (para RI) Conozco a esos tipos, pero sus datos no son infantiles y cuestan en consecuencia. Yo tengo un 60-65% pero para mis datos también está muy bien, ahora no compro casi nada por separado, antes usaba plaza pero ahora uso regular quick y mt para obtener los datos de forex.

 

Un hilo interesante. Mucha palabrería, pero también algunas reflexiones inteligentes. Gracias.

 
Andrei:

Un hilo interesante. Mucha palabrería, pero también algunas reflexiones inteligentes. Gracias.


))) Lo principal es la comunicación y el proceso. Parece que algunas personas ya están creando bots neuronales. Me gustaría probar .
 
No me interesa:

Si te refieres al errorfuera de muestra, con al menos 100k muestras para probar en datos debidamente preparados, entonces los resultados son muy empinados, "más empinados que los huevos", incluso para datos HFT, en minutos y más es fantástico, o un sobreajuste trivial. En los datos de baja frecuencia, Dios no permita que el 2-3% obtenga una ventaja, lo mismo con numerai.

Es genial cuando predice la dirección de los precios con un segundo de antelación, con una precisión 65-70% (para RI) Conozco a esos tipos, pero sus datos no son infantiles y cuestan en consecuencia. Tengo un 60-65% pero para mis datos está muy bien, ahora no compro casi nada por separado, antes usaba plaza pero ahora uso regular quick y mt para obtener mis datos de forex.


Para mí el error de predicción no es el principal problema. Para mí, el principal problema es el sobreentrenamiento del modelo. Sin embargo, o bien tengo pruebas débiles de que el modelo NO está reentrenado, o bien el modelo no es necesario en absoluto.

He escrito muchas veces en este hilo (y en otros también) sobre el diagnóstico del sobreentrenamiento y las herramientas para afrontarlo. En resumen, se trata de limpiar los predictores de entrada del ruido y el modelo en sí es de importancia secundaria.

Todo lo demás no me interesa, ya que cualquier resultado sin consideraciones de sobreentrenamiento es sólo un poco, ahora, tal vez mañana, y después de mañana un drenaje de la depo.