Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1786
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
El artículo es la bomba, no he entendido nada pero lo he leído con la boca abierta... Gracias.
Incluso tengo una idea, si una gran cantidad de reglas al azar todavía convergen a alguna estructura común, sólo en diferentes formas, entonces podemos establecer una analogía con el algoritmo Random Forest, sus creadores han hecho un montón de pruebas y resultó que no importa la secuencia de formación de la regla o la ruptura, sólo un simple azar siempre puede obtener resultados similares ...
Así que pienso que si tomamos, por ejemplo, un gráfico de 5 min/semana y lo tomamos como un determinado patrón grande - "BP", y dentro de él generamos una muestra utilizando diferentes ventanas deslizantes (normalizadas a escala, por supuesto)
A continuación, se entrena un Forest en esta muestra, es decir, se generan un montón de reglas aleatorias dentro de BP.
A continuación, escalar BP a la muestra mastab y predecir BP por sus reglas internas que se generaron anteriormente...
Esos tienen en cuenta la fractalidad y comprueban si todo este anidamiento funciona...
Interesante...
No confíes en las teorías sobre suposiciones. La similitud de los resultados de las reglas simples y las leyes de la física no es una prueba sino una suposición.
Puedes probarlo, sólo que las reglas son aleatorias para nosotros. De hecho, no son aleatorios. Es interesante ver el resultado)))
No creas en teorías sobre suposiciones. La similitud de los resultados de las reglas simples y las leyes de la física no es una prueba, sino una suposición.
Es posible intentarlo, sólo que las reglas son aleatorias para nosotros. De hecho, no son aleatorios. Es interesante ver el resultado)))
No funcionó(
Forrest no está entrenado, intenté reconocerlos usando análogos, pero tampoco funcionó.
sin éxito(
Forrest no está aprendiendo por alguna razón, intentó el reconocimiento analógico pero tampoco tuvo éxito(
Antes de empezar el modus operandi, pasé cerca de medio año afinando el EA, probándolo en el historial y mejorando su rendimiento mediante la búsqueda de patrones visuales que provocaban pérdidas, es decir, ajustándolo manualmente al historial. Eso fue en 2017, al final del cual dirigí el EA hasta aproximadamente febrero de 2018.
La ley de la mezquindad o, como decidí en su momento, de la chorrada, envió inmediatamente el balance a terreno negativo, el proyecto se consideró una decepción y se cerró.
A finales de 2018 volví a intentar retomar este proyecto, viendo un resultado interesante para el año que termina.
De nuevo empezaron los contratiempos, se retiró el EA y tras controlar los resultados en el probador de 2019, me convencí de que había tomado la decisión correcta de abandonar el proyecto.
Ayer decidí revisar los antiguos modelos de hojas de árbol y comprobé el EA, que fue retocado por última vez en 2018, pero no de forma significativa.
Sinceramente, no podía creer lo que veían mis ojos: ¡el resultado es muy bueno!
Y así surgen tesis y preguntas:
1. ¿Por qué el Asesor Experto creado con este método es más estable que el EA creado con el método MO?
2. Existen periodos desfavorables de negociación: 2019 fue puramente plano para Si.
3. ¿En cuanto ponga en marcha el EA empezará a perder dinero?
4. ¿Por qué métrica puedo clasificar el periodo de negociación global más adecuado para un determinado modelo de TS/MO?
5. ¿Cómo se puede tolerar un año de escarceos cercanos a cero o incluso con pérdidas, a la espera de un periodo de negociación adecuado?
4. ¿Cuáles son los indicadores para clasificar el periodo de negociación global más adecuado para un determinado modelo de TS/IO?
5. ¿Cómo se puede tolerar un año de chapoteo cerca de cero, o incluso de caída en picado, a la espera de un periodo de negociación adecuado?
La pregunta clave. Parece que no hay ninguno. Es una decisión. Levantar o no las clavijas. )))) Se está extrayendo que los indicadores deben ser de la media de la historia y del momento. Y algo de ZZ tiene que formarse. Las correlaciones no parecen buenas. Parece que es así, pero se están quedando atrás y son demasiado medios. De todos modos, me mareo por ahora.
Sería bueno mirar los coeficientes de pirson en todos los extremos tf de ZZ, el número de tendencias o extremos mínimos/máximos, la amplitud media de la volatilidad y la velocidad media del precio. Por el momento, no se me ocurre nada sobre los datos más que los incrementos.
Algunas personas aquí toman el camino simple. Toman una gran cantidad de TS sencillas y tratan de aplicarlas de forma óptima, mediante un simple entrenamiento con el mejor resultado.
Todavía no hay servicio, utilizamos todos los instrumentos de 70 a 20 años))))
...
Una buena cosa es mirar todos los coeficientes de Pearson de tf en ZZ extrema, número de tendencias, o extrema mínima/máxima, anchura media de la volatilidad y velocidades medias de los precios. Por el momento, no se me ocurre nada sobre los datos más que los incrementos.
...
Algo parecido hice yo, dividí los segmentos de ZZ en 3 grupos por su longitud. Sí, es un buen indicador del éxito de mi TS, pero sólo se puede utilizar para el pasado, pero qué hacer con el presente es un misterio.
He hecho algo parecido, he dividido los segmentos de ZZ en 3 grupos por longitud, y sí - es un buen indicador para el éxito de mi TS, pero sólo se puede definir el pasado de esa manera, y qué hacer con el presente es el misterio.
3 no es suficiente. Y de alguna manera tenemos que entender / definir la lógica de todos los datos del TF. Es bueno, si todos los indicadores de la historia están determinados y los utilizamos como criterio para la toma de decisiones, entonces si los nuevos datos repiten la historia, entonces todo es bueno, si no - esto es un nuevo dato. Si los nuevos datos son superiores al 30%, hay un error en los datos. No es suficiente o no tiene sentido. O es apoteósico y no hay conexión.
Hay que medir los incrementos y compararlos con los datos)))) Aparte de los incrementos quiero algo más. Pero todo lo que se puede inventar es un derivado de los incrementos. El volumen ciertamente permanece, pero no sé cómo abordarlo desde este ángulo.
3 no es suficiente. Y de alguna manera tenemos que entender / definir la lógica de todos los datos del TF. Si todos los indicadores del historial están definidos y los utilizamos como criterio de decisión, entonces si los nuevos datos repiten el historial, entonces todo es bueno, si no, entonces son nuevos datos. Si los nuevos datos son superiores al 30%, hay un error en los datos. No es suficiente o no tiene sentido. O es apoteósico y no hay conexión.
Hay que medir los incrementos y compararlos con los datos)))) Aparte de los incrementos quiero algo más. Pero todo lo que se inventa es un derivado de los incrementos. Por supuesto, todavía tengo el volumen, pero no sé cómo mirarlo.
No utilizo los incrementos en forma desnuda - sólo los valores relativos normalizados de hecho.
No tiene sentido mezclar predictores para el rendimiento del modelo y predictores para determinar la favorabilidad de un modelo concreto. Creo que un modelo debería determinar la favorabilidad y el otro el propio TC. Luego queda la cuestión del margen de maniobra para entrenar esas condiciones favorables, y para ello hay que definir el umbral en el que la ST funciona eficazmente. Pueden ser algunos índices, por ejemplo, el balance de errores y el crecimiento de los beneficios o algunos otros indicadores métricos. Y, respectivamente, la clasificación debe determinarse para una semana o, al menos, para un día.
pero eso es sólo una forma de definir el pasado, y lo que hay que hacer con el presente es el misterio.
No es ningún misterio.
1) Es necesario determinar períodos favorables para la ST y períodos desfavorables, es decir, crear el objetivo "Y" en la misma forma binaria habitual Y = 0000111100000
2) Crear variables que reflejen las "características del mercado". , justa e imparcial. El DSP, y en particular el análisis espectral, ayudará en este caso.
Sabemos por la DSP que una señal de cualquier complejidad puede ser descrita por la suma de ondas sinusoidales, una onda sinusoidal tiene sólo tres parámetros - amplitud, frecuencia y fase; esta suma de ondas sinusoidales o más bien sus parámetros pueden ser tomados como una característica del mercado, y será objetiva.
Si te resulta difícil, puedes prepararme los datos, el precio y la "Y" para la clasificación y me inventaré un código y comprobaré si es posible reconocer una condición favorable para el comercio o no, ya que este tema me interesa también
Pero ¿cómo contar Y ? sólo por el beneficio no es probablemente la mejor opción, el punto de entrada es importante ... Después de todo el beneficio se obtiene de un buen punto de entrada y no del rango entre la entrada y la salida.
Así que resulta que sólo necesitamos el punto de entrada del sistema y los parámetros del mercado en este momento ...
Resulta que el AMO recibirá una señal del TS para entrar y decidirá si abre una posición o no
Da miedo pensar en ello, pero esto es lo que nuestro Micha constantemente trinó))